Autore Paolo Pecere
CoautoreMauro Dorato, Carlo Cellucci, Giovanni Battimelli, Claudio Calosi, Giovanni Macchia, Angelo Bassi, Matteo Morganti, Giambattista Formica, Edoardo Datteri, Alberto Oliverio, Mario De Caro, Massimo Marraffa, Carlo Rovelli
Titolo Il libro della natura II
SottotitoloII. Scienze e filosofia da Einstein alle neuroscienze contemporanee
EdizioneCarocci, Roma, 2015, Studi superiori 1028 , pag. 430, cop.fle., dim. 15x22x2,3 cm , Isbn 978-88-430-7833-2
CuratorePaolo Pecere
LettoreCorrado Leonardo, 2016
Classe epistemologia , filosofia , scienza , storia della scienza , matematica , fisica , biologia , scienze naturali , scienze cognitive












 

| << |  <  |  >  | >> |

Indice


1.   A un secolo dalla "filosofia scientifica":
     ripensare il rapporto tra scienza e filosofia                   13
     di Paolo Pecere

1.1. Filosofia delle scienze                                         13
1.2. Eredità e revisione del neopositivismo                          15
1.3. Il ruolo della storia                                           20
1.4. Metafisica e interpretazione delle teorie:
     aspetti del dibattito contemporaneo                             22
1.5. Un esempio: fisica e/o filosofia                                26
1.6. Struttura del volume                                            30
     Riferimenti bibliografici                                       31


2.   Perché il linguaggio della natura è matematico?
     Da Galilei al dibattito contemporaneo                           35
     di Mauro Dorato

2.1. Il linguaggio della matematica e la natura                      35
2.2. Due coppie di atteggiamenti opposti riguardo al problema
     di spiegare l'efficacia della matematica                        37
2.3. Dall'approccio dell'isomorfismo parziale al problema
     dell'applicabilità                                              40
     Riferimenti bibliografici                                       41


3.   Irragionevole efficacia o ragionevole inefficacia della
     matematica?                                                     45
     di Carlo Cellucci

3.1. Irragionevole efficacia della matematica?                       45
3.2. Matematica naturale e matematica come disciplina                46
3.3. Il platonismo matematico                                        47
3.4. Gli oggetti matematici come ipotesi                             49
3.5. L'efficacia della matematica naturale                           51
3.6. La spiegazione teologica                                        52
3.7. La spiegazione basata sul parallelismo                          52
3.8. Altre spiegazioni                                               54
3.9. Matematica e proprietà del mondo                                55
3.10.Matematica e semplicità                                         58
3.11.Parzialità della matematica                                     60
3.12.Matematica e concettualizzazioni del mondo                      61
3.13.Matematica e approssimazioni alle concettualizzazioni del mondo 62
3.14.Spiegazione immediata e spiegazione ultima dell'efficacia
     della matematica                                                64
     Riferimenti bibliografici                                       65


4.   Alle origini della relatività ristretta                         69
     di Giovanni Battimelli

4.1. Il movimento nell'etere e il principio di relatività            69
4.2. Come si misura il tempo?                                        72
4.3. Un fondamento unitario per la fisica: la concezione
     elettromagnetica del mondo                                      75
4.4. La dinamica dell'elettrone                                      78
4.5. Le tracce della storia                                          82
     Riferimenti bibliografici                                       83


5.   Relatività speciale e metafisica analitica                      85
     di Claudio Calosi

5.1. Interpretazioni filosofiche della relatività  speciale
     e metafisica analitica                                          85
5.2. Lo spazio-tempo di Minkowski                                    87
5.3. Relatività speciale e metafisica del tempo                      91
5.4. Relatività speciale e metafisica della persistenza             100
     Riferimenti bibliografici                                      110


6.   Relatività generale e cosmologia: basi teoriche e questioni
     filosofiche                                                    115
     di Giovanni Macchia

6.1. I principi                                                     116
6.2. La curvatura                                                   120
6.3. Le equazioni di Einstein                                       122
6.4. Cosmologia relativistica                                       128
6.5. Filosofia dello spazio-tempo                                   132
     Riferimenti bibliografici                                      138


7.   Il problema della misura e le interpretazioni alternative
     della teoria quantistica                                       141
     di Angelo Bassi

7.1. La meccanica quantistica                                       141
7.2. Il problema della misura                                       145
7.3. Universalità dell'equazione di Schrödinger: molti mondi        148
7.4. Riduzione da parte della coscienza                             150
7.5. Cambiare il ruolo della funzione d'onda: l'informazione        151
7.6. La meccanica bohmiana                                          154
7.7. I modelli di collasso spontaneo della funzione d'onda          162
     Riferimenti bibliografici                                      167


8.   La meccanica quantistica tra positivismo e realismo:
     origine e sviluppi di una controversia                         171
     di Paolo Pecere

8.1. Uno "scisma" nella fisica?                                     171
8.2. Il dibattito tra i fisici e il ruolo della filosofia           173
8.3. Vienna-Copenhagen-Los Angeles: il neopositivismo logico e
     la nuova meccanica                                             186
8.4. Al crocevia del realismo: interpretazioni e teorie alternative 189
8.5. La realtà (quantistica) si dice in molti modi:
     aspetti del dibattito contemporaneo                            192
     Riferimenti bibliografici                                      198


9.   Meccanica quantistica e metafisica analitica                   205
     di Matteo Morganti

9.1. La nuova metafisica della meccanica quantistica                205
9.2. Identità e individualità                                       207
9.3. Parte-tutto e proprietà                                        213
9.4. Disposizioni e indeterminatezza ontologica                     217
9.5. Realismo strutturale ontico                                    221
     Riferimenti bibliografici                                      227


10.   L'assiomatizzazione della matematica e le ricadute dei
      teoremi di Gödel                                              229
      di Giambattista Formica

10.1. Una "pietra miliare" nell'indagine sui fondamenti
      delle scienze                                                 229
10.2. L'emergere del modello assiomatico                            230
10.3. Metodo assiomatico e programma di Hilbert                     234
10.4. I teoremi di Gödel                                            244
10.5. L'evoluzione dell'assiomatica                                 254
      Riferimenti bibliografici                                     258


11.   Intelligenza artificiale e scienza della natura               265
      di Edoardo Datteri

11.1. Che cos'è l'intelligenza artificiale?                         265
11.2. Macchine e spiegazione del comportamento intelligente:
      una breve storia della ricerca in IA                          269
11.3. IA e filosofia: la spiegazione del comportamento animale      285
11.4. Una questione di metodo: macchine, scoperta e controllo       293
      Riferimenti bibliografici                                     296


12.   Plasticità cerebrale e determinismo                           301
      di Alberto Oliverio

12.1. Programmazione genetica del sistema nervoso                   301
12.2. Approccio filogenetico alla plasticità                        304
12.3. Effetti dell'arricchimento e impoverimento ambientale         306
12.4. Plasticità e sviluppo del sistema nervoso                     308
12.5. Dai fenomeni degenerativi alla plasticità                     309
12.6. La memoria e il potenziamento a lungo termine (LTP)           310
12.7. Periodi critici e plasticità                                  313
      Riferimenti bibliografici                                     314


13.   La coscienza come problema scientifico tra filosofia
      e neuroscienze                                                317
      di Paolo Pecere

13.1. Rinascita di un'indagine multidisciplinare:
      neuroscienza, neuroentusiasmo, filosofia                      317
13.2. Origini moderne: organo dell'anima, localizzazione
      e limiti della neuroscienza                                   310
13.3. La riscoperta della coscienza nella philosophy of mind        327
13.4. Le teorie neuroscientifiche:
      evidenze empiriche e ipotesi metafisiche                      342
13.5. Scienza e filosofia della coscienza:
      continuità o discontinuità?                                   355
      Riferimenti bibliografici                                     363


14.   Dal problema mente-cervello al problema
      psicologia-neuroscienza                                       371
      di Mario De Caro e Massimo Marraffa

14.1. Il funzionalismo computazionale e il problema mente-corpo     371
14.2. Il riduzionismo psiconeuronale                                373
14.3. Il funzionalismo non riduzionistico                           376
14.4. Riduzione ed eliminazione                                     384
14.5. L'analisi meccanicistica e il pluralismo esplicativo          390
      Riferimenti bibliografici                                     398


15.   Fisica e filosofia oggi                                       403
      di Carlo Rovelli

15.1. Che cos'è la scienza? I dati e le idee                        403
15.2. La rivoluzione cosmologica di Anassimandro                    404
15.3. Come avvengono i progressi in fisica                          406
15.4. Conoscenza storica e incertezza scientifica                   408
15.5. L'unificazione della fisica e la ricerca di una teoria finale 411
15.6. Fisica senza filosofia?                                       414
      Riferimenti bibliografici                                     416


      Indice dei nomi                                               417
      Gli autori                                                    427


 

 

| << |  <  |  >  | >> |

Pagina 13

1
A un secolo dalla "filosofia scientifica":
ripensare il rapporto tra scienza e filosofia
di Paolo Pecere





1.1 Filosofia delle scienze


I saggi raccolti in questo volume tracciano un percorso attraverso i problemi e le teorie che più hanno sollecitato e alimentato la riflessione filosofica sulle scienze del XX secolo. Vi si trovano discussioni critiche, aggiornate fino agli anni più recenti, di temi come l'assiomatizzazione della scienza e l'applicazione della matematica alla natura, di teorie come la relatività generale e la meccanica quantistica e di campi di ricerca come l'intelligenza artificiale e le neuroscienze cognitive.

Tutte queste discussioni pongono la questione del ruolo della filosofia nella formazione, l'interpretazione e la critica delle teorie scientifiche, facendo spesso riferimento a concetti e problemi della "filosofia della scienza" intesa come disciplina accademica particolare. Il volume, però, non compone un profilo della filosofia della scienza per autori o temi. Si tratta piuttosto del tentativo di cogliere la riflessione filosofica in medias res, muovendo cioè dai diversi contesti scientifici in cui essa trova la sua ragion d'essere. Questo metodo, che corrisponde a una tendenza affermatasi negli ultimi venticinque anni (per cui si parla oggi di una "filosofia delle scienze particolari" che si affianca alla "filosofia della scienza generale"), è stato scelto qui per offrire uno sguardo d'insieme sulla riflessione filosofica intorno alle scienze del XX secolo, intesa non tanto come un dominio disciplinare dotato di principi e metodi propri, ma come un momento dell'elaborazione scientifica, che ha giocato un ruolo importante nella formazione dei grandi paradigmi di ricerca del secolo scorso. Si tratta, dunque, di mettere in rilievo l'aspetto intrinsecamente interdisciplinare della filosofia della scienza e a tal fine l'opera si avvale del contributo congiunto di scienziati, filosofi e storici.

La continuità tra scienze e filosofia, resa invisibile e spesso contestata nell'attuale assetto istituzionale della ricerca e dell'insegnamento, è un dato di fatto radicato nella storia della cultura moderna. Questa continuità è particolarmente evidente nei saggi del primo volume di quest'opera (Pecere, 2015), dedicato a idee e teorie elaborate nei secoli XVI-XIX e rimaste poi fondamentali nel sapere scientifico. In quel caso, esaminare la stratificazione di significati (e di problemi) accumulata in termini come "rivoluzione scientifica", "meccanicismo", "metodo sperimentale", "matematizzazione", "vitalismo", "spazio", "evoluzione", ha comportato necessariamente l'apporto congiunto della ricostruzione storica, della riflessione filosofica e della conoscenza scientifica. Anche i saggi del presente volume, per quanto siano dedicati a vicende più recenti e ancora attuali, si caratterizzano per la presenza di una componente storica, la cui giustificazione è meno immediata. Non si tratta, d'altra parte, di una scelta innovativa, ma, ancora una volta, di una tendenza evidente negli studi più recenti. Nelle discussioni di un determinato problema epistemologico – come l'applicabilità della matematica alla natura o la riducibilità della psicologia alla neurobiologia – si tende oggi a porre in primo piano l'esame delle idee alternative che di volta in volta sono state adottate per la sua soluzione, piuttosto che applicare procedure analitiche prefissate ed entrare senz'altro nel merito del problema. Per molto tempo la filosofia della scienza ha seguito preferibilmente un processo inverso, ispirandosi al metodo delle scienze e tentando di imitarlo. Ma le controversie sorte intorno ai metodi di analisi della scienza e l'accumulo di approcci epistemologici alternativi hanno impedito l'affermazione di una singola metodologia metateorica, accrescendo il bisogno di giustificare le scelte del singolo ricercatore rispetto alle alternative del passato.

Parallelamente è mutata l'immagine del sapere scientifico. Circa un secolo fa i filosofi tendevano a individuare alcuni grandi risultati scientifici della matematica, della fisica e della biologia come punti di partenza indiscussi del proprio lavoro: si pensi alle geometrie non-euclidee, alla teoria dell'evoluzione, alla relatività, alla meccanica quantistica. Oggi, discutere dei fondamenti di una teoria o di un campo d'indagine scientifica del secolo scorso comporta invece – anche per gli stessi scienziati – la necessità di prendere posizione rispetto a controversie critiche che sono sorte dopo la prima formulazione di queste teorie, alla luce di un'immagine più dettagliata e complessa dei problemi che quelle prime formulazioni affrontarono e di ulteriori risultati scientifici che ne hanno posto di nuovi.

L'adozione di una prospettiva storica riflette dunque le trasformazioni che la filosofia della scienza ha attraversato nel XX secolo, e soprattutto negli ultimi decenni, portando a capovolgere alcune delle idee che avevano dato origine alla disciplina. Per illustrare quest'ultima affermazione e introdurre alcuni dei motivi ricorrenti nei saggi del volume è opportuno ora richiamare più in dettaglio alcuni episodi di questo lungo antefatto.

| << |  <  |  >  | >> |

Pagina 20

Da questo processo dipende la componente storica che si ritrova nei saggi di questo volume, anche laddove questi presentano prospettive nuove e originali. Prendere posizione sul problema della validità della matematica o sull'interpretazione di teorie come la meccanica quantistica – per fare solo due esempi – comporta inevitabilmente la riconsiderazione di una tradizione epistemologica stratificata in cui non si presuppone più, al contrario di un secolo fa, un sicuro progresso lineare. Per esempio non è più escluso che l'efficacia della matematica, oltre che determinare l'efficacia di uno strumento formale ben preciso, possa offrire sostegno a congetture sulla struttura oggettiva della realtà: pertanto la questione merita di essere discussa da capo. Analogamente, non è più dato per scontato che la straordinaria efficacia predittiva di una teoria come la meccanica quantistica comporti che l'interpretazione canonica della teoria sia ovviamente vera e tracci una volta per tutte i limiti della conoscenza dei fenomeni atomici e subatomici. E ancora: non è più senz'altro chiaro come si debbano correlare i risultati dell'indagine psicologica e di quella neurobiologica, e questo pone nuovamente in questione i fondamenti delle rispettive discipline.

| << |  <  |  >  | >> |

Pagina 25

Una tale distinzione tra paradigmi filosofici e scientifici esprime bene la distanza dell'attuale filosofia della scienza dai tempi in cui la filosofia si risolveva nell'analisi logica delle teorie. Certamente, secondo una buona parte dei filosofi della scienza di oggi, le teorie scientifiche possono e devono ispirare la scelta tra diverse opzioni metafisiche. Ma al tempo stesso si torna a riconoscere che la filosofia può svolgere una funzione euristica, a partire dal fatto che essa, anche in assenza di dati sperimentali, ha storicamente ispirato lo sviluppo e la diffusione delle teorie scientifiche moderne. Friedman (2010) ricorda il ruolo del cartesianesimo rispetto alla meccanica e all'astronomia moderne e il ruolo delle indagini sullo spazio di Helmholtz, Poincaré e Mach rispetto alla fisica relativistica. In effetti, ancora di recente, le controversie filosofiche hanno favorito l'elaborazione di alternative teoriche: si pensi a come le obiezioni al positivismo abbiano pesato e pesino ancora nella discussione sui fondamenti della meccanica quantistica o a come le obiezioni avanzate contro il funzionalismo tra gli anni Settanta e Novanta alimentino la ricerca di nuove teorie scientifiche della coscienza fenomenica.

È importante sottolineare anche che la menzionata sottodeterminazione non riguarda soltanto quelle discipline, come la matematica o la fisica, in cui gli oggetti non sono direttamente accessibili all'esperienza. Un discorso analogo si può fare, ad esempio, per la genetica: nessuno mette in dubbio l'esistenza dei geni e il fatto che questi determinino lo sviluppo dei caratteri negli organismi. Ma la tendenza a ricavare senz'altro dai geni la spiegazione di caratteri e comportamenti anche complessi ha dato luogo a quello che Telmo Pievani definisce "animismo genetico", che è invece senz'altro in discussione al giorno d'oggi. Come mostrano soprattutto le scienze della vita, dunque, non si tratta soltanto di selezionare le entità realmente esistenti in base alle teorie scientifiche, ma anche di stabilire in modo più accurato le proprietà di entità universalmente ammesse, senza cadere in generalizzazioni e inferenze infondate. Qualcosa di simile si potrebbe dire dei neuroni e della neuroscienza cognitiva contemporanea, che è oggetto di un enorme sviluppo, ma anche di una decisa indagine critica (interna ed esterna) che denuncia l'urgenza di circoscrivere l'effettiva portata esplicativa e applicativa delle attuali conoscenze.

Tutti i problemi appena menzionati non mettono in discussione il progresso delle teorie scientifiche in termini di capacità esplicative e predittive dei fenomeni naturali, ma piuttosto la derivazione acritica, da queste teorie, di principi e credenze incondizionatamente validi. In altre parole, la vicenda secolare della epistemologia, che ha cercato nella scienza un asilo rispetto al proliferare incontrollato delle metafisiche, porta oggi, nel medesimo spirito critico, a individuare la metafisica latente nelle stesse teorie scientifiche e pertanto a rimetterla in discussione abolendo le barriere del passato. Tuttavia, occorre segnalare che le tendenze epistemologiche appena accennate restano controverse, soprattutto presso la comunità scientifica. Così, a dispetto della liberalità con cui oggi tra filosofi e in certi ambiti della comunità scientifica si discute di alternative metafisiche, la possibilità di discriminare tra queste alternative con l'ausilio della filosofia non è ampiamente riconosciuta; parallelamente, molti scienziati non dimostrano apertura rispetto alla possibilità che la filosofia possa aiutare a risolvere problemi che le loro teorie, almeno nella loro forma attuale, non sono capaci di risolvere. Infine, è controversa anche la posizione più modesta, secondo cui le idee filosofiche svolgerebbero una funzione euristica per l'evoluzione del pensiero scientifico. In generale si può affermare che, nonostante gli sforzi di un secolo di filosofia della scienza, l'estraneità tra cultura filosofica e cultura scientifica è ancora forte, non soltanto tra i filosofi che ignorano l'importanza di confrontarsi con le scienze, ma anche tra gli scienziati che ritengono le proprie discipline del tutto estranee a qualsiasi questione filosofica.

| << |  <  |  >  | >> |

Pagina 30

1.6 Struttura del volume


I saggi raccolti in questo volume si possono raccogliere in sei sezioni, che conviene distinguere per agevolare diversi percorsi di lettura.

Una prima sezione – la sola dedicata a un tema piuttosto che a un campo disciplinare – riguarda il problema della matematizzazione della natura. Questo tema, radicato nelle celebri posizioni di Galilei all'alba della scienza moderna, viene affrontato da due prospettive diverse, che esprimono efficacemente le tendenze più recenti dell'epistemologia: quella realistica (in particolare, del realismo strutturale) nel saggio di Mauro Dorato (CAP. 2) e quella naturalistica, nel saggio di Carlo Cellucci (CAP. 3).

Una seconda sezione riguarda la teoria della relatività di Einstein. Il saggio di Giovanni Battimelli (CAP. 4) esamina l'origine della relatività ristretta nel contesto delle ricerche sulla teoria elettromagnetica della massa. Il saggio di Claudio Calosi (CAP. 5), saltando avanti di oltre un secolo, presenta le discussioni metafisiche più recenti sulle nozioni di "spazio-tempo" e di "oggetto" alla luce della relatività speciale. Infine, il saggio di Giovanni Macchia (CAP. 6) è dedicato agli aspetti filosofici della relatività generale e della cosmologia.

Una terza sezione riguarda la meccanica quantistica. Il saggio di Angelo Bassi (CAP. 7) è dedicato all'esposizione del problema centrale nell'indagine sui fondamenti della teoria (il cosiddetto problema della misura) e delle interpretazioni o teorie alternative oggi più considerate dalla comunità scientifica. Segue un saggio di Paolo Pecere (CAP. 8) che esamina il ruolo delle idee filosofiche nelle discussioni tra fisici e filosofi sulla meccanica quantistica. Infine il saggio di Matteo Morganti (CAP. 9) presenta il concetto di metafisica analitica ed esamina come diversi problemi metafisici vengano affrontati alla luce della teoria quantistica, al tempo stesso fornendo una base categoriale per l'interpretazione della teoria stessa.

In una quarta sezione si possono includere due capitoli che prendono le mosse dalle indagini del secolo scorso sul sapere matematico e sugli aspetti computazionali della conoscenza. Il saggio di Giambattista Formica (CAP. 10) presenta un profilo storico-critico aggiornato della genesi e delle sorti del programma hilbertiano di assiomatizzazione della matematica, soffermandosi particolarmente sulla sua crisi, determinata dai teoremi di Gödel, e sulle implicazioni filosofiche dell'intera vicenda. Il saggio di Edoardo Datteri (CAP. 11) traccia un percorso critico attraverso l'intera ricerca sull'intelligenza artificiale, sottolineando la varietà di approcci con cui questa disciplina contribuisce a una comprensione dell'intelligenza umana (e in genere animale) e presentando alcuni esempi di come essa ha interagito e interagisce ancora con la filosofia.

Una quinta sezione riguarda neuroscienza e psicologia cognitiva. Il saggio di Alberto Oliverio (CAP. 12) presenta una breve storia del concetto di plasticità cerebrale, discutendone le implicazioni per la comprensione neurobiologica delle funzioni cognitive, come la memoria, e del cervello in genere. Il saggio di Paolo Pecere (CAP. 13) discute origini e sviluppi contemporanei della ricerca su una teoria neuroscientifica della coscienza, confrontando argomentazioni filosofiche e modelli scientifici attualmente in discussione. Il capitolo di Mario De Caro e Massimo Marraffa (CAP. 14) affronta in chiave storico-critica l'antinomia tra riduzionismo neuroscientifico e autonomia dei concetti psicologici, difendendo un "pluralismo esplicativo" capace di conciliare l'analisi psicologica delle funzioni mentali con l'elaborazione di modelli neuroscientifici dei meccanismi cerebrali.

Il capitolo conclusivo di Carlo Rovelli (CAP. 15), come si è accennato, affronta il problema del ruolo delle idee per lo sviluppo della fisica teorica, con particolare riferimento alle frontiere della fisica contemporanea. Rovelli rifiuta una concezione del progresso scientifico come accumulo di conoscenze empiriche e difende la tesi dell'importanza cruciale delle idee (in quanto chiavi di lettura dei fatti) per l'origine delle rivoluzioni scientifiche. Si tratta anche di uno dei quattro capitoli del volume scritti da scienziati (gli altri sono quelli di Battimelli, Bassi e Oliverio). Tutti questi capitoli insistono sul carattere aperto e dinamico del pensiero scientifico, formando in questo un contrappunto con i capitoli scritti dai filosofi, che insistono sui molteplici modi con cui la filosofia interpreta le medesime teorie scientifiche: questo contrappunto esprime bene — o questo è l'auspicio di chi scrive — la convergenza ideale che ha reso possibile questo lavoro.

| << |  <  |  >  | >> |

Pagina 45

3
Irragionevole efficacia
o ragionevole inefficacia
della matematica?
di Carlo Cellucci





3.1 Irragionevole efficacia della matematica?


Nel 1960 Wigner pubblicò un articolo che sta all'origine di quasi tutte le discussioni sull'efficacia della matematica nelle scienze naturali dell'ultimo secolo.

Secondo Wigner, anche se «i concetti matematici si presentano in contesti del tutto inaspettati» e «spesso permettono una descrizione inaspettatamente precisa e accurata dei fenomeni in tali contesti», nondimeno «l'enorme utilità della matematica nelle scienze naturali è qualcosa che sconfina nel misterioso e di cui non esiste alcuna spiegazione razionale» (Wigner, 1960, p. 2). È «difficile evitare l'impressione che qui ci troviamo di fronte a un miracolo» (ivi, p. 7). Il «miracolo dell'appropriatezza del linguaggio della matematica per la formulazione delle leggi della fisica è un meraviglioso dono che non comprendiamo né meritiamo. Noi dobbiamo esserne grati e sperare che esso rimarrà valido nella ricerca futura» (ivi, p. 14).

Punti di vista simili sono stati espressi da vari fisici. Per esempio, Weinberg afferma: «È molto strano che i matematici siano portati dal loro senso della bellezza matematica a sviluppare strutture formali che i fisici trovano utili solo in seguito, anche quando i matematici non avevano in mente tali scopi» (Weinberg, 1993, p. 125). È «come se, quando Neil Armstrong nel 1969 per primo mise piede sulla superficie della luna, avesse trovato nella polvere lunare le orme di Jules Verne» (ibid.). È «positivamente inquietante che il fisico trovi che il matematico è stato là prima di lui» (Weinberg, 1986, p. 725).

Feynman afferma: «Trovo molto sorprendente che si possa prevedere che cosa accadrà per mezzo della matematica, che semplicemente è un seguire regole che realmente non hanno nulla a che fare con la cosa originaria» (Feynman, 1967, p. 171).

L'opinione che l'efficacia della matematica nelle scienze naturali sia qualcosa che sconfina nel misterioso e di cui non esiste alcuna spiegazione razionale contrasta con il fatto che, dall'antichità, sono state date varie spiegazioni di tale efficacia. Alcune di esse verranno discusse appresso. Prima, però, occorre fare alcune considerazioni.



3.2 Matematica naturale e matematica come disciplina


Normalmente si pensa alla matematica come a una disciplina — una disciplina un po' ostica per la maggior parte delle persone. Ma la matematica non è soltanto una disciplina, è una componente della natura umana.

Infatti, negli ultimi decenni le scienze cognitive hanno mostrato che gli esseri umani hanno certe capacità matematiche innate. Per esempio, i neonati di tre o quattro giorni hanno un senso innato del numero. Sanno distinguere gli insiemi di due oggetti da quelli di tre oggetti, sia che questi vengano presentati loro attraverso stimoli visivi oppure attraverso stimoli uditivi. I bambini di quattro mesi sanno eseguire, in modo innato e inconsapevole, semplici addizioni e sottrazioni come 1+1=2, 2+1=3 o 2—1=1. Oltre a un senso innato del numero, i bambini di pochi mesi mostrano di avere un senso innato dello spazio, della grandezza, della forma e dell'ordine, tutte capacità matematiche.

Queste capacità matematiche innate sono un risultato dell'evoluzione biologica, sono incorporate nella costituzione biologica degli esseri umani, in particolare nel loro apparato percettivo e sono essenziali per la sopravvivenza, perciò hanno una funzione biologica. Esse danno luogo a quella che può dirsi la "matematica naturale", un insieme di conoscenze matematiche innate, e quindi non acquisite attraverso un processo di apprendimento. Su questa base innata si è poi sviluppata la matematica come disciplina, che è un risultato non dell'evoluzione biologica ma dell'evoluzione culturale. Tra i due tipi di matematica esiste un collegamento. Infatti, la capacità di trattare concetti matematici astratti, propria della matematica come disciplina, si basa sulle capacità numeriche preverbali e non simboliche della matematica naturale (cfr. Starr, Libertus, Brannon, 2013).

Al pari della matematica naturale, anche la matematica come disciplina è nata per rispondere a esigenze pratiche degli esseri umani. Così, Proclo dice che «la geometria fu scoperta per la prima volta in Egitto e trasse origine dal problema di rimisurare i campi» a causa delle «esondazioni del Nilo che cancellavano i confini tra le varie proprietà. Non è affatto sorprendente che la scoperta» della geometria «ebbe origine da necessità pratiche». Passando dall'Egitto alla Grecia, però, la matematica diventò una disciplina astratta, distaccata dalle sue origini empiriche. Di nuovo Proclo dice che «Talete, che aveva viaggiato in Egitto, fu il primo a introdurre questa scienza in Grecia. Egli stesso fece molte scoperte», e sembra che dopo di lui Mamerco «si sia applicato allo studio della geometria» (ivi, 65.7-14). Ma «dopo di loro, Pitagora cambiò lo studio della geometria dandole la forma di una disciplina liberale, cercandone i primi principi e studiandone i problemi da un punto di vista puramente astratto e teoretico» (ivi, 65.15-19). Dunque, secondo Proclo, fu Pitagora a trasformare la matematica in una disciplina astratta.




3.3 Il platonismo matematico


L'aver distaccato la matematica dalle sue origini empiriche indusse i Greci a considerare gli oggetti matematici, cioè gli oggetti di cui si occupa la matematica, come dotati di un'esistenza indipendente.

| << |  <  |  >  | >> |

Pagina 49

3.4 Gli oggetti matematici come ipotesi


Nell'ultimo secolo, l'esistenza degli oggetti matematici è stato un tema centrale della filosofia della matematica. Questo contrasta con il Seicento e il Settecento, in cui vari filosofi considerano l'esistenza degli oggetti matematici come inessenziale per la matematica. Così Descartes afferma che «l'aritmetica, la geometria e altre discipline di questo tipo poco si curano se gli oggetti di cui si occupano esistano o no» (Descartes, 1996, VII, p. 20). Locke afferma che «tutti i discorsi dei matematici sulla quadratura del cerchio, le sezioni coniche» e così via «non riguardano affatto l'esistenza di quegli oggetti, ma le loro dimostrazioni» rimangono «le stesse, che quegli oggetti esistano o no» (Locke, 1975, p. 566). Hume afferma che, «anche se in natura non vi fosse alcun cerchio o triangolo, le verità dimostrate da Euclide conserverebbero per sempre la loro certezza ed evidenza » (Hume, 1975, p.15). Kant afferma che «nei problemi matematici non si tratta affatto di questo, o in generale dell'esistenza» degli oggetti matematici, «bensì delle proprietà degli oggetti in sé stessi» (Kant, 1900-, IV, p. 472, B 747).

Quei filosofi del Seicento e del Settecento avevano ragione. L'esistenza degli oggetti matematici è inessenziale per la matematica, intendendo per "esistenza degli oggetti matematici" un'esistenza indipendente da noi, cioè dal nostro pensiero, linguaggio e attività. Contrariamente a quanto afferma il platonismo matematico, gli oggetti matematici sono semplicemente delle ipotesi che i matematici introducono per risolvere i problemi che si pongono. Essi non hanno un'esistenza indipendente dagli esseri umani, ma esistono solo nelle menti dei matematici che li pongono come ipotesi e nelle menti di coloro che leggono le creazioni dei matematici. Vi sono varie teorie della mente, ma quella che mi sembra più plausibile è la teoria della mente estesa, secondo cui la mente è solo una metafora che sta a indicare certe capacità del corpo, potenziate con l'uso di certi processi esterni al corpo, materiali o simbolici, come l'uso di figure, modelli, mappe e sistemi di simboli.

L'affermazione che gli oggetti matematici esistono solo nelle menti dei matematici che li pongono come ipotesi e nelle menti di coloro che leggono le creazioni dei matematici non va confusa con quella di Brouwer, secondo cui gli oggetti matematici sono costruzioni di un matematico idealizzato, «il soggetto creativo» (Brouwer, 1975, p. 511). Mentre le nostre menti possono pensare il concetto astratto di insieme e scoprirne alcune proprietà, il soggetto creativo di Brouwer non può farlo.

Naturalmente, quando si formula un'ipotesi che introduce certi oggetti matematici, si deve mostrare che l'ipotesi è plausibile, cioè compatibile con i dati esistenti. Allora si può dire che tali oggetti matematici "esistono". Ma questo non significa che essi esistano letteralmente, nel mondo fisico o in un presunto iperuranio. È alla loro esistenza letterale che si opponevano Descartes, Locke, Hume e Kant. Affermare che essi esistono significa solo che si può mostrare che le ipotesi che li introducono sono plausibili.

La matematica è un prodotto umano, è parte dell'essere umano. In particolare la matematica naturale, risultante dall'evoluzione biologica, è un insieme di capacità che sono indispensabili per la sopravvivenza degli esseri umani. La matematica come disciplina, risultante dall'evoluzione culturale, è un insieme di modelli che consentono agli esseri umani di trattare il mondo e di renderlo comprensibile a sé stessi. Lo scopo della matematica è quello di elaborare strumenti per vedere e pensare il mondo. Gli oggetti matematici sono tra tali strumenti. Essi sono formulati dagli esseri umani e permettono loro di vedere e pensare il mondo in termini umani. E, come tutti i pensieri umani, gli oggetti matematici esistono solo nella mente degli esseri umani.

Certo, alcuni oggetti matematici risultano utili non solo per risolvere il problema per il quale sono stati introdotti in origine, ma anche per risolvere altri problemi non previsti allora. Quando questo accade, tali oggetti matematici acquistano una certa stabilità e danno l'impressione di avere un'esistenza indipendente. Ma si tratta solo di un'illusione, che nasce dalla familiarità che abbiamo con essi. In realtà, gli oggetti matematici sono solo delle ipotesi e non hanno alcuna esistenza indipendente. Altri oggetti matematici non acquistano alcuna stabilità e, dopo un periodo più o meno lungo, scompaiono dalla corrente principale della matematica.

| << |  <  |  >  | >> |

Pagina 54

[...] Infine, l'ipotesi del parallelismo implica che la matematica che si può usare per trattare certi fenomeni fisici sia determinata univocamente da tali fenomeni. Questo contrasta con il fatto che spesso, per trattare gli stessi fenomeni fisici, si possono usare teorie matematiche differenti. Per esempio, per trattare l'ottica si può usare la geometria o il calcolo delle matrici; per trattare la relatività ristretta si può usare il calcolo tensoriale o il calcolo vettoriale; per trattare la meccanica quantistica si può usare la teoria delle equazioni differenziali o il calcolo delle matrici.

| << |  <  |  >  | >> |

Pagina 55

3.9 Matematica e proprietà del mondo


La matematica come disciplina non sa trattare tutte le proprietà del mondo, ma solo proprietà di tipo matematico, come la grandezza, la forma, l'ordine ecc.


Secondo un'opinione diffusa, risalente ai pitagorici, il mondo è matematico. Così Aristotele ci informa che «i cosiddetti Pitagorici per primi si applicarono alle matematiche e le fecero progredire e, nutriti di esse, ritennero che i principi delle matematiche fossero principi di tutti gli esseri» (Metafisica, A 5. 985 b 23-26).

L'opinione che il mondo sia matematico è stata riaffermata più volte dall'antichità fino ai nostri giorni. Per esempio, Gross afferma: «La matematica si occupa di strutture che sono una parte reale del mondo naturale, altrettanto reali dei concetti della fisica teorica» (Gross, 1988, p. 8373). Come abbiamo già visto, Tegmark addirittura afferma che il mondo è una struttura matematica.

Dire che il mondo è matematico, però, è ingiustificato perché la matematica fa uso di concetti e risultati, come quelli della matematica infinitaria, a cui non si può attribuire alcun significato fisico. Inoltre, solo alcune proprietà del mondo hanno un carattere matematico. Perciò la matematica non è in grado di trattare tutte le proprietà del mondo. La matematica sa trattare solo proprietà del mondo che hanno un carattere matematico.

Questo sta alla base della rivoluzione filosofica di Galilei, che ha dato origine alla scienza moderna. Galilei, nella terza lettera a Welser (1612), propone il dilemma: «O noi vogliamo specolando tentar di penetrar l'essenza vera ed intrinseca delle sustanze naturali», come vuole Aristotele, oppure «noi vogliamo contentarci di venir in notizia d'alcune loro affezioni. Il tentar l'essenza l'ho per impresa non meno impossibile e per fatica non men vana nelle prossime sustanze elementari che nelle remotissime e celesti» (Galilei, 1968, V, p. 187). Se invece «vorremo fermarci nell'apprensione di alcune affezioni» di tipo matematico, quali «il luogo, il moto, la figura, la grandezza», allora non «par che sia da desperar di poter conseguirle anco ne i corpi lontanissimi da noi, non meno che ne i prossimi, anzi tal una per aventura più esattamente in quelli che in questi» (ivi, p.188). La rivoluzione filosofica di Galilei è appunto che la scienza deve rinunciare a penetrare l'essenza vera e intrinseca delle sostanze naturali, limitandosi a conoscerne solo alcune proprietà fenomeniche di tipo matematico.

Russell afferma che «la fisica è matematica non perché noi sappiamo tanto sul mondo fisico, ma perché ne sappiamo tanto poco; quello che possiamo scoprirne sono solo le proprietà matematiche» (Russell, 1927, p. 125). Questa affermazione di Russell è un'espressione della rivoluzione filosofica di Galilei. Naturalmente, la matematica è essenziale per studiare proprietà fenomeniche di tipo matematico. Per questa ragione Galilei afferma che «il voler trattare le quistioni naturali senza geometria è un tentar di fare quello che è impossibile a esser fatto» (Galilei, 1968, VII, p. 229). E Kant afferma che «in ogni teoria particolare della natura si può trovare tanta autentica scienza quanta matematica c'è» (Kant, 1900-, IV, p. 470).

Non è dunque per una ragione misteriosa che, a partire dal Seicento, è diventata possibile una trattazione matematica della natura; è solo una conseguenza della scelta di Galilei di rinunciare a conoscere l'essenza delle sostanze naturali, contentandosi di conoscerne alcune affezioni di tipo matematico. Perciò è ingiustificato dire, come fa Wigner, che l'enorme utilità della matematica nelle scienze naturali è qualcosa che sconfina nel misterioso e di cui non esiste alcuna spiegazione razionale. L'affermazione di Wigner è altrettanto ingiustificata di quella di un ittiologo che, gettando nell'oceano una rete con maglie di cinque centimetri ed esaminando la sua pesca, affermasse che nessun pesce dell'oceano è più piccolo di cinque centimetri e che questo è un fatto che sconfina nel misterioso e di cui non vi è alcuna spiegazione razionale. L'affermazione dell'ittiologo che nessun pesce dell'oceano è più piccolo di cinque centimetri sarebbe valida solo per la sua pesca, ma nell'oceano vi sono pesci più piccoli di cinque centimetri, solo che la sua rete non è adatta a catturarli. La matematica è efficace nel trattare il mondo perché, in seguito alla rivoluzione filosofica di Galilei, la scienza moderna si limita a considerare solo quegli aspetti del mondo che sono di tipo matematico. Ma la matematica è adatta solo a catturare quegli aspetti – proprio come la rete dell'ittiologo è adatta solo a catturare pesci non più piccoli di cinque centimetri.

In realtà la capacità della matematica di trattare proprietà del mondo di tipo matematico ha dei limiti. Illustrerò questa affermazione con due esempi.

| << |  <  |  >  | >> |

Pagina 58

3.10 Matematica e semplicità


In particolare, la matematica non sa trattare tutte le proprietà del mondo di tipo matematico, ma solo quelle più semplici.

[...]

[...] Come osserva Galilei, alcuni pensano che la natura

si accomoda alla nostra intelligenza [...] quasi che la natura prima facesse il cervello a gli uomini, e poi disponesse le cose conforme alla capacità de' loro intelletti. Ma io stimerei più presto, la natura aver fatte prime le cose a suo modo, e poi fabbricati i discorsi umani abili a poter capire (ma però con fatica grande) alcuna cosa de' suoi segreti (Dialogo sopra i due massimi sistemi del mondo, in Galilei, 1968, VII, p. 289).

In effetti, l'evoluzione biologica ha prodotto un cervello umano abbastanza abile da poter capire alcuni aspetti del mondo, a partire da quelli che sono essenziali per la sopravvivenza, ma non tutti gli aspetti.

| << |  <  |  >  | >> |

Pagina 60

3.11 Parzialità della matematica


Solo una parte della matematica può trattare proprietà del mondo di tipo matematico.

[...]

Da quanto è stato detto sopra, appare chiaro che la matematica non può dirsi assolutamente efficace nel trattare il mondo. Essa non sa trattare tutte le proprietà del mondo, ma solo quelle proprietà che sono di carattere matematico e, tra queste, solo le più semplici. Inoltre, solo una parte della matematica può trattare proprietà del mondo di tipo matematico.

| << |  <  |  >  | >> |

Pagina 61

3.11 Matematica e concettualizzazioni del mondo


Attraverso la matematica noi non trattiamo direttamente il mondo, ma solo le nostre concettualizzazioni del mondo.


Nessuno osserva le leggi di natura in quanto tali. Ciò che si osserva sono solo certi dati, che ovviamente non vengono osservati direttamente ma attraverso esperimenti. Talora si è in grado di concettualizzare, nei dati osservativi, delle regolarità. Questo non è immediato, perché spesso gli stessi dati osservativi possono essere concettualizzati in modi differenti. Talora si è anche in grado di esprimere le regolarità, concettualizzate nei dati osservativi, sotto forma di leggi formulate in termini matematici: le leggi di natura. Questo fatto viene spesso frainteso, assumendo che le leggi di natura esistano nel mondo e che la matematica usata per formularle esista nel mondo. Per esempio, si assume che, poiché le orbite dei pianeti sono ellittiche, le ellissi esistano nel mondo. Ma le leggi di natura non esistono nel mondo, esistono solo nelle menti degli esseri umani. Le ellissi non esistono nel mondo, sono solo concetti in termini dei quali gli esseri umani concettualizzano i dati osservativi sulle posizioni dei pianeti. Un raggio di luce che passi per una fessura non sa nulla delle trasformate di Fourier.

[...]

Perciò la matematica non è l'essenza del mondo, ma è solo un modo umano di vederlo e pensarlo.

| << |  <  |  >  | >> |

Pagina 62

3.13 Matematica e approssimazioni alle concettualizzazioni del mondo


La matematica è efficace nel trattare il mondo quando, tra i modelli matematici che l'evoluzione culturale ha reso disponibili, se ne trova uno che approssima sufficientemente una delle concettualizzazioni umane del mondo.

[...]

Sia la matematica che le concettualizzazioni umane del mondo esistono solo nella mente umana e sono un risultato dell'evoluzione culturale. Quando gli esseri umani riescono a formulare leggi di natura usando la matematica è perché, tra i modelli matematici già disponibili, essi trovano un'approssimazione sufficiente alle loro concettualizzazioni di certe regolarità nei dati osservativi, concettualizzazioni che sono anch'esse un risultato dell'evoluzione culturale. In ogni caso, ciò che gli esseri umani trovano è solo un'approssimazione alle loro concettualizzazioni, che è adeguata per certi scopi. Così, nell'esempio di Keplero, le orbite dei pianeti sono solo approssimativamente ellittiche, e non sono facili da calcolare a causa della disturbante influenza di fattori kepleriani, newtoniani, einsteiniani, termodinamici e caotici. Anche quando si riesce a calcolare le orbite dei pianeti, i calcoli permettono previsioni accurate solo su un periodo di tempo relativamente breve. Questo è sufficiente per certi scopi, ma i calcoli non consentono previsioni accurate su scale temporali di milioni di anni.

| << |  <  |  >  | >> |

Pagina 64

3.14 Spiegazione immediata e spiegazione ultima dell'efficacia della matematica


Si è detto sopra che la matematica è efficace nel trattare il mondo perché, come risultato della rivoluzione filosofica di Galilei, la scienza moderna si limita a considerare quegli aspetti del mondo fisico che sono di tipo matematico. Questa, però, è solo la spiegazione immediata dell'efficacia matematica nel trattare il mondo. In considerazione di quanto si è detto sopra sulla relazione tra matematica ed evoluzione biologica, la spiegazione ultima sta nel fatto che, come risultato dell'evoluzione biologica, gli esseri umani sono dotati di certe capacità matematiche. Come dice Atiyah, «il cervello si è evoluto al fine di affrontare il mondo fisico, perciò non deve sorprendere troppo che esso abbia sviluppato un linguaggio, la matematica, che è adatto allo scopo» (Atiyah, 1995).

Le capacità matematiche di cui gli esseri umani sono dotati come risultato dell'evoluzione biologica sono la base della matematica naturale e anche, indirettamente, della matematica come disciplina, poiché quest'ultima si è sviluppata grazie a quelle capacità matematiche. In base a esse gli esseri umani sono in grado, da un lato, di concettualizzare regolarità nei dati osservativi e, dall'altro lato, di formulare vari modelli matematici, alcuni dei quali possono essere sufficienti approssimazioni alle nostre concettualizzazioni di regolarità nei dati osservativi.

| << |  <  |  >  | >> |

Pagina 171

8
La meccanica quantistica tra positivismo e realismo:
origine e sviluppi di una controversia
di Paolo Pecere





8.1 Uno "scisma" nella fisica?


La meccanica quantistica è una delle teorie più efficaci della storia della fisica e uno dei pilastri dell'attuale conoscenza scientifica, ma al tempo stesso è occasione, fin dai tempi della sua comparsa, di accese controversie interpretative. Com'è noto, i grandi fisici del secolo scorso si divisero tra chi – come Heisenberg, Bohr e Born – difendeva la piena validità della nuova teoria e chi invece – come Einstein e Schrölinger – sosteneva che essa presentasse alcuni aspetti teoricamente insostenibili, come l'indeterminismo e l'impossibilità di principio di determinare i valori di alcune variabili fisiche prima dell'atto di misurazione. Nessuno dei protagonisti di questo dibattito metteva in dubbio l'efficacia del nuovo formalismo matematico per la descrizione dei risultati sperimentali; il dissenso riguardava piuttosto la capacità della teoria canonica di offrire una valida e completa spiegazione dei fenomeni quantistici, che i critici contestavano sostenendo che solo una teoria diversa, ma tale da includere tutte le previsioni della meccanica quantistica, avrebbe fornito una descrizione soddisfacente dei fenomeni microfisici. La difesa della teoria si è basata in genere – e si basa ancora – sulla tesi secondo cui il successo sperimentale imporrebbe di prendere sul serio i risultati della teoria e di conseguenza modificare la rappresentazione della realtà fisica come particella o onda che dominava la fisica precedente, mentre i critici non riuscirebbero a rinunciare agli aspetti intuitivi della fisica classica, combattendo una battaglia di retroguardia analoga a quella intrapresa in passato dai critici della relatività ristretta.

In base al suddetto dissenso, tra gli anni Trenta e gli anni Cinquanta del secolo scorso, si consolidò l'idea che le controversie tra i fisici sottintendessero l'opposizione tra diverse concezioni filosofiche, che fungendo da dogmi avrebbero preso il sopravvento sulle discussioni fisiche. Per esempio Heisenberg scrisse nel 1955 che gli oppositori della teoria convergevano su un punto: «il ritorno al vecchio concetto di realtà della fisica classica, o, detto più in generale, all'ontologia del materialismo» (Heisenberg, 1955, p. 17). Il riferimento era a fisici come Einstein e Bohm, che ancora di recente avevano contestato il positivismo di coloro che difendevano il valore definitivo della teoria quantistica, sostenendo l'esigenza di una nuova teoria che eliminasse il processo di misura dalla descrizione della realtà fisica. L'anno successivo Popper – che condivideva questo obiettivo – reagì includendo Bohr e Heisenberg tra i sostenitori dello strumentalismo epistemologico, una concezione che rinunciava alla «vera descrizione del mondo» e che aveva caratterizzato l'opposizione di illustri esponenti del clero ai risultati di Galilei e Newton. Popper concludeva: «Pochi, o nessuno, tra i fisici che oggi hanno accettato la concezione strumentalista di Bellarmino o del vescovo Berkeley realizzano che hanno accettato una concezione filosofica» (Popper, 1956, p. 99). Nel manoscritto del Poscritto alla Logik der Forschung, redatto nello stesso periodo, Popper sosteneva che fosse in atto uno «scisma» nella fisica: da una parte c'erano i sostenitori di indeterminismo, strumentalismo e soggettivismo, dall'altra quelli di determinismo, realismo e oggettivismo (Popper, 1982b, p. 174). Si consolidò così un luogo comune che non ha smesso di influenzare le discussioni successive: la posizione di Bohr e Heisenberg, che difendevano la piena validità e la completezza della meccanica quantistica, cominciò a essere ascritta all'"interpretazione di Copenhagen", bollata dai critici come espressione di un positivismo o di uno strumentalismo epistemologici, che di fatto servivano a negare i limiti della teoria e a precludere la possibilità di un progresso scientifico; le voci dei sostenitori di ipotesi alternative vennero invece ritenute espressione di un pregiudizio filosofico realistico, che rendeva incapaci di accettare il significato innovativo della nuova teoria.

Ma questa antinomia filosofica tra positivismo (o strumentalismo) e realismo, che talvolta è adottata ancora oggi per inquadrare le diverse interpretazioni della meccanica quantistica, non è adeguata a caratterizzare le controversie che effettivamente hanno avuto luogo, sia nel campo della fisica, sia in quello della filosofia. Per apprezzare l'indubbio peso che le idee filosofiche hanno avuto in queste discussioni occorre prima di tutto abbandonare questa dicotomia, rintracciando i precisi contesti polemici in cui essa ha avuto origine e la varietà di prospettive che in essi vennero aperte.

| << |  <  |  >  | >> |

Pagina 196

8.5.1. INDETERMINISMO E DIMENSIONI DELLA REALTÀ


Nel dibattito contemporaneo – concentrato sulle teorie alternative – è passato in secondo piano il tema dell'indeterminismo, che aveva dominato i primi anni delle discussioni filosofiche. Tuttavia non è mai venuta meno la riflessione sul modo in cui le proprietà fisiche messe in luce dalla meccanica quantistica si possono collegare con quelle dell'esperienza comune, di cui quel tema fu la prima occasione. Nel caso dell'indeterminismo, infatti, si poneva il problema di stabilire se questa proprietà della teoria fisica possedesse un'importanza per stabilire, o almeno per non precludere, la libertà del volere.

Che l'indeterminismo quantistico si potesse collegare con il fenomeno della decisione libera fu sostenuto, in modi differenti, da diversi protagonisti della rivoluzione quantistica, come Bohr, Jordan (cfr. PAR. 8.1.1) e Hermann Weyl (1927). In generale, una limitatezza intrinseca della conoscenza fisica serviva a lasciare spazio per una dimensione etica dell'esperienza. Si trattava di congetture, ispirate da diverse ed eterogenee letture filosofiche, il cui tratto comune stava nel ricavare dal formalismo quantistico un resoconto complessivo dell'esperienza umana. Simili estrapolazioni erano senz'altro estranee allo spirito antimetafisico dei neopositivisti; così, a segnalare il salto logico che esse nascondevano, intervenne Moritz Schlick in persona, il quale – tenendo certamente presente la separazione tra descrizione scientifica e dimensione etica del Tractatus di Wittgenstein – richiamò la distinzione tra due concetti completamente eterogenei: quello fisico della causalità (in questo caso espressa in termini probabilistici) e quello etico della libertà (Schlick, 1931, trad. it. p. 77). Si trattava in realtà di una questione già posta più volte a proposito della meccanica classica e che l'emergenza dell'indeterminismo in fisica non fece che riaccendere. Le radici della distinzione posta da Schlick affondavano infatti in un lungo dibattito in cui, contro le ambizioni metafisiche del materialismo e dell'idealismo, l'esigenza di distinguere diversi "domini" dell'esperienza era stata avanzata da filosofi e scienziati sia empiristi sia kantiani. A inserire il dibattito sulla nuova fisica in questa più vasta cornice storica fu Cassirer, il quale propose che, senza nulla togliere all'indagine fisica sulla legalità della natura (che peraltro non avrebbe mai realizzato un determinismo metafisico come quello ipotizzato da Laplace), si trattava di distinguere tra mondo fisico e mondo etico in quanto «dimensioni» categoricamente incommensurabili, in cui il concetto di «determinazione» assume un senso diverso (Cassirer, 1937, pp. 137-55). Anche Heisenberg (1941) aderì a una distinzione di «livelli di realtà» e, in generale, la distinzione tra piano fisico e piano etico divenne sempre più ampiamente condivisa da interpreti di diversa ispirazione filosofica.

La questione tuttavia rimase implicita nel fisicalismo di molti filosofi della scienza e si è riproposta, nel naturalismo più recente, con le discussioni sul "riduzionismo" e sulla "sopravvenienza" tra le teorie scientifiche. Alcuni scienziati, del resto, hanno rilanciato in diversi modi l'ipotesi che l'indeterminismo quantistico possa giocare un ruolo per comprendere l'emergenza della coscienza in quanto condizione della decisione libera. Di fronte a questo genere di tesi molti filosofi hanno continuato (o ricominciato) a sottolineare che, a prescindere dalla validità di determinati modelli fisici, la vera e propria riduzione di proprietà (o leggi) psicologiche o etiche a proprietà (o leggi) microfisiche non è imposta dal sapere scientifico. Da questo punto di vista la contrapposizione non divide – di nuovo – positivisti e realisti, ma piuttosto sostenitori di un realismo scientifico che ammette un solo piano di realtà (eliminando gli altri come epifenomenici), e sostenitori di un realismo che ammette più livelli irriducibili di realtà (Ladyman et al., 2007). Quest'ultima posizione comporta l'assunzione congiunta di tesi che in passato hanno caratterizzato diverse versioni del neopositivismo (le teorie scientifiche predittivamente più efficaci sono riferimento privilegiato per l'elaborazione concettuale dell'esperienza), del realismo (l'esistenza degli oggetti fisici è indipendente da quella degli osservatori) e del kantismo (le proprietà con cui si qualificano gli oggetti empirici e scientifici dipendono in parte dalle condizioni della percezione e dell'attività mentale dell'uomo). Anche alla luce di questi sviluppi contemporanei, dunque, appare obsoleta la rigida disgiunzione di queste tradizioni, che si sono intrecciate lungo l'intero dibattito sulla meccanica quantistica.

| << |  <  |  >  | >> |

Pagina 229

10
L'assiomatizzazione della matematica
e le ricadute dei teoremi di Gödel
di Giambattista Formica





10.1 Una "pietra miliare" nell'indagine sui fondamenti delle scienze


Di pochi risultati scientifici si può dire che, a distanza di molti decenni dalla loro scoperta, continuino ad attirare su di sé l'attenzione della riflessione filosofica. Certamente lo si può dire dei risultati più rilevanti e, più in particolare, di quelli che hanno avuto una portata epocale, che hanno chiuso un'era di discussioni all'interno di una disciplina aprendone una nuova. I teoremi di incompletezza per i sistemi matematici formali – noti come "teoremi di Gödel" – hanno avuto senza dubbio una portata epocale in questo senso. Scoperti negli anni Trenta del secolo scorso, in un ambito specifico del dibattito sui fondamenti delle scienze, quello riguardante la matematica, hanno dato una risposta inequivocabile in senso negativo a una domanda divenuta nel tempo sempre più urgente: è possibile fornire una volta per tutte una giustificazione rigorosa della matematica classica? È possibile cioè dimostrare matematicamente, servendosi degli strumenti messi a disposizione dalla logica, che la matematica è davvero la più sicura di tutte le scienze? Rispondendo negativamente a questa domanda i teoremi di incompletezza, pubblicati nel 1931 dal logico Kurt Gödel, hanno chiuso un'epoca di discussioni agguerrite tra orientamenti diversi – in realtà vere e proprie scuole fondazionali che si distinguevano per il modo in cui concepivano la natura, il modus operandi e la validità della matematica classica – e hanno inaugurato una nuova era dell'indagine sui fondamenti, che ha portato alla creazione di nuovi indirizzi di ricerca al di là degli stessi confini della matematica pura o della logica. La teoria della computabilità, le applicazioni da essa generatesi, come la nascita dei calcolatori digitali, e molte delle riflessioni filosofiche che l'hanno accompagnata, ad esempio quelle in intelligenza artificiale, sarebbero impensabili senza i teoremi di Gödel o perlomeno senza molti dei metodi impiegati per dimostrare i risultati di incompletezza. Non solo. Da allora questi teoremi non hanno smesso di "stuzzicare" le menti dei filosofi e non di rado degli uomini di scienza che sono tornati a interrogarsi – alcune volte male interpretandola – sul significato dell'incompletezza formale della matematica per l'epistemologia, per molti ambiti della filosofia (ad esempio per la filosofia della mente) e per la ricerca nelle altre scienze, specialmente in quelle più legate alla matematica. In definitiva, a quasi un secolo dalla loro scoperta si confermano profetiche le parole con cui John von Neumann nel 1951 celebrò da presidente dell'American Mathematical Society i contributi gödeliani: «I risultati di Kurt Gödel sono per la logica moderna unici e monumentali – anzi, sono più di un monumento, costituiscono una pietra miliare che rimarrà a lungo nello spazio e nel tempo» (von Neumann, 1951, p. IX).




10.2 L'emergere del modello assiomatico


La domanda sulla possibilità di giustificare in modo rigoroso la matematica fu posta implicitamente già nei primi decenni dell'Ottocento, tuttavia si esplicitò nella seconda metà del secolo e a partire dagli anni Settanta si radicalizzò in una chiave che si può definire "fondazionale". Tutto ciò avvenne in un momento in cui la disciplina era in forte espansione e stava vivendo una sorta di "Età dell'oro" o «seconda nascita» (cfr. Stein, 1988, p. 238).

Gli storici sono soliti attribuire (giustamente) la grande espansione della matematica nell'Ottocento al profondo rinnovamento concettuale in senso astratto a cui essa stava andando incontro. Si tratta di un rinnovamento che, pur lasciandole mantenere un rapporto privilegiato con le scienze della natura, portava la disciplina ad allontanarsi sempre di più dal mondo dell'esperienza, verso un regno che in molti definivano del "pensiero puro". La scoperta delle geometrie non-euclidee, della possibilità di spazi lontani da quello intuibile naturalmente, l'estensione dell'analisi matematica allo studio di funzioni a variabile complessa-immaginaria o ancora, più avanti, la nascita della teoria degli insiemi, che aprì ai matematici l'accesso a un universo illimitato di grandezze (di potenza sempre maggiore), sono solo alcuni dei nuovi territori conquistati dalla matematica ottocentesca una volta ridimensionato il rapporto "esclusivo" con l'empiria. D'altra parte, in una società sempre più industrializzata, pronta a far proprie le novità provenienti dalla riflessione teorica, questo allontanamento non era visto come un congedo, ma significava assecondare la libera espansione del pensiero, nella certezza che gli ampliamenti perseguiti prima o poi avrebbero trovato un riscontro nella realtà, ritornando utili alle altre scienze oppure incontrando applicazioni tecnologiche.

Mentre i confini della matematica venivano ampliati al di là di ogni aspettativa, spesso con estrema avidità, senza che i metodi messi in campo venissero sottoposti a considerazioni attente, iniziò a farsi avanti la richiesta di un rigore maggiore nella pratica della disciplina.

È emblematico in questo senso quanto avvenne all'analisi, vero e proprio punto di snodo tra le nuove geometrie e la teoria degli insiemi, e anche per questo luogo in cui la domanda sulla giustificazione della matematica si fece paradigmatica. Infatti, da una maggiore precisione nelle definizioni, chiesta all'inizio del secolo per nozioni fondamentali come quelle di continuità, derivabilità e integrazione, si passò intorno agli anni Cinquanta a cercare una totale riscrittura, libera da considerazioni di tipo geometrico, della disciplina in termini aritmetici ("aritmetizzazione dell'analisi"), per giungere nelle ultime tre decadi a proporre una ricostruzione di questo ramo della matematica fin dalle sue fondamenta, a partire cioè dalle sue basi numeriche. Si tratta, appunto, di una richiesta di rigore che andò sempre più precisandosi in chiave fondazionale.

| << |  <  |  >  | >> |

Pagina 234

10.3 Metodo assiomatico e programma di Hilbert


Tra le innumerevoli ragioni che possono essere individuate per giustificare il fatto che Hilbert debba essere considerato il padre dell'assiomatica moderna, qui preme sottolinearne tre: 1. innanzitutto egli concepì la pratica assiomatica adattandola alle esigenze della matematica moderna; 2. così facendo offrì un'immagine più organica e diversa da quella tradizionale del metodo assiomatico; 3. con il suo programma intese portare questo metodo al suo perfezionamento.

| << |  <  |  >  | >> |

Pagina 244

10.4 I teoremi di Gödel

10.4.1. LA FINE DEL PROGRAMMA DI HILBERT

Alla luce di quanto appena esposto si può capire il fascino che l'assiomatica hilbertiana esercitava oltre che su alcuni membri della comunità scientifica, anche su un'importante porzione del mondo filosofico. Il programma di Hilbert prometteva: «[p]er i matematici non esiste l' ignorabimus» e di conseguenza «non esiste nemmeno per la scienza della natura» (cfr. Hilbert, 1930, p. 387; trad. it. p. 311); piuttosto, in matematica e nelle scienze doveva valere quella «legge che inerisce all'intima natura del nostro intelletto» («assioma della risolubilità di ogni problema») secondo cui ogni problema ben formulato – come quello della giustificazione delle scienze – poteva trovare soluzione in uno dei due seguenti sensi: «o riuscendo a dare la risposta alla questione posta oppure mostrando l'impossibilità di una sua soluzione e quindi la necessità dell'insuccesso di ogni tentativo» (cfr. Hilbert, 1900b, pp. 297-8; trad. it. pp. 153-4). In questa promessa stava una delle ragioni dell'interesse che l'assiomatica hilbertiana riscuoteva al di là dei confini di Gottinga, ad esempio nei Circoli di Vienna e di Berlino.

A partire dagli anni Venti in questi Circoli si cercò di praticare sistematicamente grazie agli strumenti offerti dalla logica moderna un modo scientifico di fare filosofia, "adattando" l'empirismo tradizionale agli sviluppi in primo luogo della matematica e della fisica moderne, ma poi anche a quello di tutte quelle scienze (la psicologia, l'economia, la biologia ecc.) che andavano sempre più caratterizzandosi in senso sperimentale. Si legge nel celebre Manifesto del Circolo di Vienna che la «concezione scientifica del mondo non conosce enigmi insolubili» in quanto tutte le questioni filosofiche tradizionali grazie al «metodo dell'analisi logica» o sono smascherate nella loro natura di «pseudo-problemi» oppure, una volta convertite in «questioni empiriche», vengono sottoposte «al giudizio della scienza sperimentale» (cfr. Hahn, Neurath, Carnap, 1929, p. 305; trad. it. p. 75).

L'assiomatica hilbertiana era guardata con interesse a Vienna perché sembrava proporre qualcosa di analogo quando "naturalizzava" il problema filosofico-epistemologico della giustificazione delle scienze, riportandolo a un problema matematico capace di ricevere una risposta definitiva o in senso positivo o in senso negativo nel senso sopra indicato. Inoltre, era guardata con interesse anche per altre due ragioni: perché con la centralità attribuita al metodo assiomatico nell'indagine scientifica e al programma per affrontare questioni di giustificazione proponeva – anche se non in forma enciclopedica come voleva Otto Neurath – un modello di scienza unificata; infine, perché dava una risposta chiara a una delle domande fondamentali per la discussione logico-empirista, vale a dire quella sulla struttura delle teorie scientifiche (cfr. Mormann, 2007).

Infatti, secondo la concezione "sintattica" che Hilbert aveva proposto – questa era la lettura diffusa a Vienna – le teorie scientifiche avrebbero una struttura assiomatica: sarebbero un sistema di relazioni che definiscono implicitamente e formalmente le entità di cui parlano.

| << |  <  |  >  | >> |

Pagina 249

Facendo una sintesi molto generale si potrebbe dire che i due teoremi di Gödel, posta la coerenza della matematica, affermerebbero due fatti per certi versi sconvolgenti: da un lato che la matematica, la scienza dimostrativa per eccellenza, conterrebbe fin nelle sue parti più semplici (come l'aritmetica elementare) verità indecidibili e quindi indimostrabili; dall'altro che essa, la scienza coerente per eccellenza, non è capace di dimostrare la propria coerenza.

Nella primavera del 1934 Gödel presentò i due teoremi di incompletezza non soltanto per il sistema formale P (l'aritmetica dei numeri naturali), ma per ogni sistema matematico formale S sufficientemente potente da permettere almeno la formalizzazione dell'aritmetica (cfr. Gödel, 1934, pp. 361-2.; trad. it. pp. 266-7). Tuttavia già nel 1930, nonostante le iniziali cautele di Gödel, John von Neumann decretò dissolte le ambizioni del programma di Hilbert e a un tempo le speranze di giustificare in modo rigoroso la matematica classica (e indirettamente le scienze): «Penso che il suo risultato abbia risolto in senso negativo la questione fondazionale: non può più darsi alcuna giustificazione rigorosa della matematica classica» (von Neumann, 1930, pp. 338-41).

Vale forse la pena precisare perché i due teoremi di Gödel, in particolare il secondo, avrebbero un impatto così devastante sul programma di Hilbert e sulla pretesa di giustificare la certezza della matematica e delle scienze. Nel secondo caso la risposta è abbastanza immediata. Perché, come si è visto, a partire dagli anni Venti, Hilbert aveva presentato un programma con il quale, puntando tutto sulle dimostrazioni di coerenza, intendeva giustificare matematicamente (una volta per tutte e in modo indubbio) la certezza della matematica classica e tramite questa delle scienze. Per far ciò egli doveva costruire in senso assiomatico dei sistemi matematici formali che permettessero di svolgere tali dimostrazioni. Al riguardo, però, il secondo teorema di incompletezza affermava che, se tali sistemi formali fossero stati coerenti, non solo sarebbero stati incompleti, ma la loro coerenza non sarebbe stata dimostrabile con gli strumenti a loro disposizione. E con ciò veniamo subito all'altra risposta, ossia sul perché tutto ciò avrebbe un impatto così devastante sul programma: perché nelle dimostrazioni finitarie di coerenza delle discipline rientranti nella matematica classica, tra cui vi è proprio l'aritmetica, Hilbert intendeva utilizzare metodi finitari molto più deboli rispetto a quelli formalizzabili al suo interno, mentre il secondo teorema di incompletezza affermava che nemmeno i metodi formalizzabili nell'aritmetica sarebbero stati sufficienti per raggiungere lo scopo.

In definitiva, con il suo programma Hilbert aveva tradotto il problema della giustificazione della matematica e delle scienze in un problema matematico a cui matematicamente si doveva dare risposta o in senso positivo dimostrando la loro coerenza oppure in senso negativo mostrando l'impossibilità di dimostrarla. Con i due teoremi di incompletezza (in particolare con il secondo) Gödel dava matematicamente una risposta in senso negativo al problema matematico che Hilbert aveva formulato e con ciò dissolveva le ambizioni del programma, sia rispetto alla giustificazione della matematica sia rispetto a quella delle scienze a essa legate.




10.4.2. INTERPRETAZIONI E SOVRAINTERPRETAZIONI FILOSOFICHE


I teoremi di Gödel sono spesso tirati in causa per giustificare al di fuori del loro contesto specifico le idee filosofiche più disparate, alcune delle quali davvero peregrine. Una spiegazione di ciò sta nel fatto che, affermando i limiti di una modalità forte di conoscenza (quella che fa ricorso, dove è possibile, ai sistemi formali della matematica), questi teoremi nelle mani del "profano" si prestano a interpretazioni suggestive. Solo che, appunto, si tratta di suggestioni che nascono da una loro non adeguata comprensione. Ad esempio, secondo alcune interpretazioni peraltro le meno peregrine, i teoremi di incompletezza affermerebbero a) in un'ottica postmoderna, che non esistono teorie in grado di raggiungere verità definitive e quindi, approdando a esiti scettici, che non si può non riconoscere la relatività della nostra conoscenza (Kadvany, 1989, p. 162); b) nella riflessione filosofica sulla fisica, l'impossibilità di ottenere una «Teoria del Tutto» dato che ogni teoria scientifica sarebbe incompleta (cfr. Hawking, 2001); e per la medesima ragione c) l'impossibilità di una riflessione razionale sulla totalità anche in metafisica e quindi la necessità di una fede (fideisticamente intesa) come unica possibile risposta all'esigenza umana di conoscenza (cfr. Guillen, 1983, p. 117). Su queste come anche su altre interpretazioni si è fatta sufficiente chiarezza e ci si può ritenere legittimati a nutrire una certa diffidenza (cfr. Franzén, 2005; Berto, 2008, pt. 2).

In realtà il tentativo di collocare i teoremi di incompletezza al di fuori del loro contesto di riferimento e di individuarne un significato (extra-matematico) più generale iniziò quando Gödel era ancora in vita e costrinse il loro autore a prendere posizione davanti a possibili letture "eterodosse" e a divulgare un'interpretazione che ha avuto un certo successo in filosofia, in particolare in filosofia della mente, e che è meritevole di una considerazione attenta.

Nel 1967, rispondendo a un lettore che gli chiedeva se i teoremi di incompletezza avessero implicazioni nichilistiche o distruttive, Gödel scrisse:

Secondo la mia opinione le implicazioni filosofiche dei teoremi sono tutt'altro che nichilistiche o distruttive. Né vedo legami con la libertà o con il caso. È stato dimostrato soltanto che il tipo di ragionamento necessario in matematica non può essere completamente meccanizzato. Sono piuttosto necessari continui e rinnovati ricorsi all'intuizione matematica [...]. Non si sa se ogni problema aritmetico passibile di un sì o di un no possa essere deciso mediante una serie di intuizioni. In ogni caso non è stato dimostrato che ci sono questioni aritmetiche indecidibili per la mente umana. Piuttosto che o esistono questi problemi o la mente umana è più di una macchina. La seconda alternativa è a mio avviso la più plausibile (Gödel, 1967a, pp. 161-2).

| << |  <  |  >  | >> |

Pagina 256

[...] Nell'indagine di Hilbert l'evoluzione formale dell'assiomatica era necessaria per dimostrare una volta per tutte la certezza della matematica e delle scienze, dunque si inseriva in un impianto epistemologico di tipo fondazionalista (cfr. Cellucci, 2002, capp. 1-9). La scoperta dei teoremi di incompletezza invece, avendo scardinato questo impianto in favore di uno di tipo pragmatico, non renderebbe più necessaria, se non per fini specifici, l'evoluzione formale dell'assiomatica. Al contrario, riconsegnerebbe il metodo assiomatico al suo dinamismo originario e al compito che più gli compete, che è quello di indagare analiticamente i fondamenti concettuali del nostro sapere.

Chi si è preoccupato di ripensare in quest'ottica lo schema di Hilbert per l'indagine sui fondamenti della matematica e delle scienze, inserendo il metodo assiomatico nel senso in cui Hilbert lo intendeva (cioè ponendosi come suo interprete) dentro un quadro epistemologico rispondente alle esigenze pragmatiche sollevate dall'incompletezza, è stato John von Neumann. Infatti, dopo aver decretato l'impossibilità di giustificare in modo definitivo la matematica, questi propose in chiave assiomatica una metodologia della scienza integralmente opportunistica e nel contempo fedele allo spirito di Hilbert.

Al riguardo l'operazione svolta da von Neumann è stata duplice. Da un lato, egli ha riconosciuto che il metodo assiomatico poteva in virtù della sua flessibilità – in quanto procedimento analitico che coinvolge dinamicamente processi di sintesi e indagini metateoriche – essere interpretato in termini apertamente pragmatici. Dall'altro, che se di teorie matematiche o scientifiche costruite assiomaticamente non si poteva più cercare, a causa dei teoremi di incompletezza, una giustificazione assoluta, se ne poteva ottenere una pragmatica attraverso il successo che le prime riscuotevano nelle scienze e le seconde nelle applicazioni. Al successo, cioè, von Neumann attribuì un compito esplicitamente fondazionale in quanto lo elevò, in sostituzione delle dimostrazioni relative o finitarie di coerenza, a criterio per giustificare teorie matematiche o scientifiche assiomaticamente costruite. Si badi che questa operazione, pur restando per molti punti fedele allo spirito di Hilbert, rappresenta un rovesciamento (inevitabile a causa dell'incompletezza) della strategia epistemologica del "maestro": la metodologia di Hilbert, infatti, intendeva giustificare le scienze portandole all'interno della matematica (fino alla matematica finitista); la metodologia di von Neumann, invece, riversava la giustificazione della matematica nelle scienze fino alle applicazioni (cfr. von Neumann, 1947; 1954; 1955).

| << |  <  |  >  | >> |

Pagina 265

11
Intelligenza artificiale
e scienza della natura
di Edoardo Datteri





11.1 Che cos'è l'intelligenza artificiale?


Ray Kurzweil ha definito l'Intelligenza artificiale (IA) come l'arte di creare macchine che eseguono funzioni che richiedono intelligenza se vengono eseguite da persone (Kurzweil, 1990). Questa definizione qualifica l'IA come disciplina puramente ingegneristica, mirata cioè alla costruzione di sistemi in grado di svolgere compiti di una certa difficoltà. Non vi è dubbio che l'IA sia anche questo: oggi sistemi informatici e robotici assistono, o addirittura rimpiazzano, gli esseri umani nello svolgimento di attività di vario tipo, dalla diagnosi medica al controllo automatico dei velivoli. L'IA però non è solo questo. In molti casi la ricerca in IA è stata infatti mossa da obiettivi di tipo puramente conoscitivo e spesso la costruzione di macchine ha contribuito allo studio dei meccanismi del comportamento intelligente nei sistemi viventi.

[...]

Senza la pretesa di formulare una definizione sufficientemente precisa e completa della disciplina si può dunque affermare che l'IA ha per oggetto di studio il comportamento dei sistemi viventi, con particolare riferimento al comportamento motorio e verbale e alle sue relazioni con l'ambiente. Gli studi che abbiamo qualificato con l'aggettivo "ingegneristico" mirano a costruire macchine che riproducano certi aspetti del comportamento dei sistemi viventi. Gli studi di carattere conoscitivo mirano a spiegare particolari aspetti di tale comportamento attraverso la costruzione di macchine. Le due classi di studi sono largamente sovrapposte: macchine costruite per valutare teorie sul comportamento intelligente possono contribuire a sviluppare nuove tecnologie o sistemi di supporto a certe attività umane, e viceversa.

La distinzione appena tracciata può essere apprezzata anche ponendoci la seguente domanda: quali caratteristiche dovrebbe possedere un sistema di successo in IA? Sarebbe fin troppo ovvio rispondere che tale sistema dovrebbe essere intelligente: questa risposta solleverebbe il problema di capire quali caratteristiche debba possedere un sistema per essere qualificato come tale. Considereremmo un sistema "intelligente" unicamente in virtù delle sue capacità di ragionamento logico (posto che abbia senso parlare di "ragionamento" in un sistema inorganico), oppure riterremmo che l'intelligenza si riveli anche in particolari abilità di tipo sensoriale e motorio? L'articolo Computing Machinery and Intelligence del matematico Alan Turing (1950) costituisce un punto di riferimento essenziale per affrontare queste domande. L'articolo prende le mosse dalla domanda «possono pensare le macchine?», domanda che è però troppo ambigua, osserva Turing, perché ambiguo è il significato del termine "pensare". Egli propone allora di sostituire questa domanda con una che qualifica come «strettamente analoga» e meno ambigua: sarà mai possibile costruire una macchina in grado di dialogare con un essere umano in modo sufficientemente realistico da riuscire a far credere al dialogante umano di essere umana anch'essa? Tale macchina costituirebbe, per Turing, un risultato di successo nella ricerca sulle macchine intelligenti. La proposta del matematico inglese solleva un'immediata obiezione: il criterio di successo fa riferimento unicamente all'abilità dialogica del sistema, senza alcuna menzione di tutte le altre abilità non verbali connesse a ciò che intuitivamente chiamiamo "pensiero". In tempi relativamente recenti, il robotico statunitense Rodney Brooks (1991) ha sostenuto una posizione significativamente diversa: un sistema di successo dell'IA deve essere in grado di sopravvivere nell'ambiente, interagendo fisicamente con esso. Per Brooks il criterio di successo non riguarda il comportamento verbale del sistema (come nell'analisi di Turing), ma il suo comportamento motorio e le sue abilità sensoriali.

[...]

Le pagine che seguono saranno dedicate agli obiettivi conoscitivi dell'IA. Prima di procedere è opportuno introdurre qualche precisazione sulla natura delle macchine che prenderemo in considerazione. L'espressione "intelligenza artificiale" richiama alla mente soprattutto un tipo particolare di macchine, ovvero i calcolatori digitali, i cui primi esemplari sono stati realizzati negli anni Quaranta del secolo scorso. I calcolatori digitali sono essenzialmente sistemi a stati discreti. Ma la storia che racconteremo non verte solo su sistemi di questo tipo: come abbiamo già sottolineato, alcuni risultati di grande interesse teorico sono stati raggiunti attraverso la costruzione di macchine analogiche – ovvero non a stati discreti – nella prima metà del XX secolo. Oggi una parte consistente della ricerca in IA è dedicata al controllo di sistemi robotici. I sistemi robotici sono dotati di attuatori, ovvero di dispositivi in grado di generare il movimento di parti fisiche sulla base di energia elettrica (per esempio, i motori), e di sensori, ovvero di dispositivi in grado di determinare certi cambiamenti di natura elettrica nel sistema, sulla base di certe caratteristiche fisiche dell'ambiente circostante. Un terzo componente essenziale dei robot è il sistema di controllo, che stabilisce un collegamento tra sensori e attuatori determinando dunque il movimento di questi ultimi sulla base di certe caratteristiche fisiche dell'ambiente circostante. In molti robot, ma non in tutti, il componente di controllo è costituito da un calcolatore digitale; ma generalmente i sensori e gli attuatori non sono adeguatamente qualificabili come sistemi a stati discreti. Quindi i robot, nel loro complesso, non sono macchine digitali. Alcuni dei concetti appena introdotti saranno richiamati nel PAR. 11.2, in cui tracceremo alcune linee essenziali della storia dell'IA.




11.2 Macchine e spiegazione del comportamento intelligente: una breve storia della ricerca in IA


La possibilità di spiegare e riprodurre certi aspetti del comportamento animale in termini puramente meccanici, e attraverso meccanismi inorganici, è stata più volte oggetto di discussione nei secoli antecedenti a quello appena trascorso (troviamo un celebre esempio nella Parte quinta del Discorso sul metodo di Cartesio ). A partire dai primi decenni del XX secolo la riflessione su questa possibilità si è affiancata sempre più spesso alla costruzione di macchine in grado di riprodurre varie forme di comportamento animale. Soprattutto grazie a tale attività costruttiva sono state compiute importanti scoperte in merito a ciò che le macchine possono e non possono fare: forme di comportamento che prima erano ritenute di esclusiva pertinenza dei sistemi viventi sono state progressivamente considerate alla portata di macchine inorganiche, e dunque in linea di principio analizzabili in termini puramente meccanici. Nelle pagine che seguono tracceremo alcune linee essenziali della storia dell'IA, riflettendo su alcune di queste importanti scoperte concettuali: la scoperta del fatto che i sistemi meccanici possono generare comportamenti imprevedibili (PAR. 11.2.1), che essi possono manifestare forme di apprendimento (PAR. 11.2.2), che sotto certe condizioni essi possono essere ritenuti sistemi orientati a uno scopo (PAR. 11.2.3) e capaci di elaborare rappresentazioni interne del mondo (PAR. 11.2.4). Descriveremo alcune macchine che hanno giocato un ruolo cruciale in questo percorso storico evidenziando i motivi per cui esse sono state interpretate di volta in volta come modelli di comportamento intelligente, determinando continui spostamenti nel confine che separa la classe delle macchine dalla classe dei sistemi viventi.

| << |  <  |  >  | >> |

Pagina 291

11.3.2. IL MECCANICISMO E L'INDIPENDENZA DAL SUPPORTO MATERIALE


Il meccanicismo — così come lo abbiamo caratterizzato — implica la tesi talvolta chiamata dell'"indipendenza dal supporto materiale" (Marconi, 2003). In base a questo stile di analisi non è la natura della sostanza di cui è composto il sistema, bensì l'organizzazione meccanicistica di tale sostanza, a svolgere un ruolo esplicativo fondamentale. Ciò significa presupporre che due oggetti composti di materiali diversi, ma organizzati nello stesso modo (suddivisi cioè negli stessi componenti, le cui interazioni siano governate dalle stesse regolarità), esibiranno lo stesso comportamento sotto le stesse condizioni; tale comportamento potrà essere dunque adeguatamente spiegato in riferimento allo stesso meccanismo, nonostante le loro differenze di natura materiale. Ecco dunque in che senso le ipotesi dell'IA sono indipendenti dalla natura del supporto materiale di cui è composto il sistema.

La tesi appena enunciata implica una forma di astrazione nello studio del comportamento intelligente di natura diversa dall'idealizzazione che abbiamo discusso nel PAR. 11.3.1. Nelle ipotesi dell'IA si ignorano alcuni possibili fattori di disturbo immaginando di collocare il sistema in condizioni ideali (questa è l'idealizzazione di cui abbiamo precedentemente discusso); inoltre si descrive unicamente l'organizzazione meccanicistica del materiale, senza attribuire un ruolo esplicativo essenziale alla sua natura (questa è l'indipendenza dal supporto materiale). Anche questa tesi è profondamente radicata nelle caratteristiche della scienza moderna.

[...]

Le caratteristiche di un materiale impongono restrizioni sul tipo di meccanismi che tale materiale può realizzare; ma questa ovvia considerazione, per il motivo appena discusso, non è in alcun modo in contraddizione con la tesi dell'indipendenza dal supporto materiale.

In secondo luogo, la tesi dell'indipendenza dal supporto materiale non risulta indebolita dalle posizioni avanzate dai cosiddetti orientamenti embodied nelle scienze cognitive, semplicemente perché essa non è l'effettivo bersaglio delle loro critiche. Molti ricercatori contemporanei sostengono che lo studio del comportamento intelligente e dei processi mentali soggiacenti non può prescindere dallo studio del corpo e del contesto ambientale in cui tale comportamento si manifesta: le caratteristiche fisiche e ambientali svolgono un ruolo fondamentale nel determinare lo sviluppo delle facoltà mentali e la produzione del comportamento (Pfeifer, Bongard, 2007). Una posizione di questo tipo, che molti contrappongono alle tesi sostenute dall'IA che abbiamo chiamato "simbolica", non è affatto in contraddizione con la tesi dell'indipendenza dal supporto materiale. E infatti l'organizzazione del corpo e del contesto, secondo gli orientamenti embodied, a svolgere un ruolo fondamentale e forse prima sottovalutato, non la sua natura sostanziale. Si afferma che lo studio del comportamento intelligente non possa "idealizzare troppo" rispetto a certe caratteristiche fisiche e contestuali; ma ciò che conta di tali caratteristiche non è la loro natura materiale. Tant'è vero che molti dei sostenitori di queste tesi accettano volentieri l'idea di studiare il ruolo del corpo e del contesto attraverso la simulazione robotica, dunque attraverso la costruzione di sistemi materialmente del tutto diversi da quelli di cui sono composti i loro principali oggetti di interesse. I loro modelli sono forse più ricchi e tengono in considerazione un maggior numero di condizioni ambientali, ma non per questo sono meno astratti rispetto al supporto materiale.

Se il riferimento alla natura della sostanza non svolge un ruolo esplicativo essenziale nei termini che abbiamo discusso, sarebbe sicuramente bizzarra ma non contraddittoria una posizione assieme meccanicistica e dualista in base alla quale la mente è una sostanza fondamentalmente distinta dalla materia, che però può organizzarsi in meccanismi (salvo naturalmente chiarire in che senso la mente, intesa come sostanza immateriale, può essere scomposta in parti che interagiscono tra di loro in modo regolare). Storicamente il meccanicismo nello studio dell'intelligenza si è sempre però accompagnato al rifiuto di una posizione dualistica di quel tipo: il meccanicismo dei primi decenni del secolo scorso si contrapponeva al vitalismo sia nel rifiuto di posizioni antiregolariste, come quelle espresse da Bichat e più volte ricordate, sia nel rifiuto di postulare sostanze vitali di natura immateriale.

| << |  <  |  >  | >> |

Pagina 317

13
La coscienza come problema scientifico
tra filosofia e neuroscienze
di Paolo Pecere





13.1 Rinascita di un'indagine multidisciplinare: neuroscienza, neuroentusiasmo, filosofia


La relazione tra cervello e coscienza costituisce un tema sempre più presente nella ricerca neuroscientifica contemporanea. Il problema è rimasto a lungo implicito a margine delle ricerche su specifiche prestazioni cognitive o fenomeni patologici, in cui l'attivazione di "moduli" funzionalmente isolati veniva separata dal generale contesto dell'esperienza cosciente unitaria. Ma a partire dagli anni Novanta, anche grazie al rapido sviluppo di tecniche di osservazione non invasiva dell'attività cerebrale, sono state avanzate numerose ipotesi empiriche sui «correlati neurali della coscienza» (NCC). Questa indagine, condotta inizialmente da una ristretta cerchia di scienziati, ha sollecitato l'istituzione di centri di ricerca, associazioni e riviste dedicate allo studio interdisciplinare della coscienza, che coinvolgono anche filosofi e psicologi. L'affermazione anche politico-culturale delle ricerche sul cervello ha favorito, parallelamente, la diffusione (anche popolare) dell'idea di un paradigma neuroscientifico onnicomprensivo, in base al quale la comprensione del funzionamento del cervello promette di contribuire allo sviluppo di discipline come l'etica, il diritto, l'estetica, l'economia. Nel caso della coscienza, questo ha rilanciato speranze (e paure) sulla possibilità di manipolare — in base alla conoscenza dei meccanismi cerebrali — il contenuto stesso della nostra esperienza. A proposito della distanza tra questo orizzonte, talvolta vago, e le effettive capacità delle conoscenze disponibili lo storico Michael Hagner (2002) ha parlato di una "ciberfrenologia", che prometterebbe — aggiornando la frenologia del XIX secolo — di leggere nelle neuroimmagini "che cosa pensi" e "chi sei". La stessa infondata trasvalutazione dei dati ha fatto parlare psicologi e neuroscienziati di "neuromania" (Legrenzi, Umiltà, zoo9) e di "neuromitologia" (Hasler, 2012). Mentre sono in atto nuovi progetti di ricerca neuroscientifici su larga scala, insomma, il bisogno di definire esattamente l'ambito e la portata di queste indagini appare sempre più associato a una responsabilità filosofica.

Prima di tutto bisogna chiedersi: che cos'è la "coscienza", di cui queste indagini vorrebbero scoprire i correlati neurali? Alcuni scienziati propongono una definizione di coscienza come proprietà unitaria, suscettibile come tale di indagine scientifica. Per esempio Giulio Tononi , uno dei massimi scienziati impegnati in questo campo, scrive:

Tutti sanno che cosa sia la coscienza. È ciò che svanisce ogni notte quando cadiamo in un sonno senza sogni e riappare quando ci svegliamo o quando sogniamo. Così, la coscienza è sinonimo di esperienza – qualsiasi esperienza – di forme o suoni, pensieri o emozioni, riguardo al mondo o a noi stessi (Tononi, 2012a, p. 193).


Che la coscienza possegga un'omogeneità essenziale, che accomuna tali diverse componenti, è una tesi ben radicata nella filosofia moderna, da quando Descartes scrisse che la cosa pensante «dubita, intende, afferma, nega, vuole, non vuole, immagina, inoltre, e sente» (Descartes, 1641, trad. it. p. 28); e molti filosofi contemporanei si sono esplicitamente richiamati a Descartes nel sostenere il carattere unitario della coscienza. Per esempio John Searle , tra i protagonisti del dibattito contemporaneo, ha sostenuto che i processi coscienti si possono caratterizzare in genere per unità di contenuti eterogenei, specifica qualità soggettiva di questi ultimi, intenzionalità (riferimento a un oggetto, reale o astratto), causalità. Sarebbe compito delle teorie neuroscientifiche spiegare come queste caratteristiche risultino dall'attività cerebrale.

Tuttavia molti filosofi hanno sostenuto che questioni molto diverse vanno sotto il titolo della "coscienza" e che ciò renderebbe inopportuno servirsi di un singolo concetto. Per esempio, come ha mostrato Block (1995), diverse sono la "coscienza fenomenica" — il "che cosa si prova a essere" (what it is like to be) un determinato essere cosciente, di cui parlava Nagel in un suo celebre articolo (1974) — e la "coscienza di accesso", cioè la disponibilità cognitiva di contenuti mentali, che rende possibile il ragionamento e l'azione controllata. Non si tratta di una semplice distinzione concettuale: casi clinici ed esperimenti neuropsicologici mostrano che vi sono stati di accesso a informazioni sull'ambiente e sullo stesso corpo del soggetto che non si accompagnano a nessun contenuto fenomenico: un esempio è la nota sindrome della "visione cieca" (blindsight) studiata da Humphrey (1970; 2006). D'altra parte, secondo Block (2011), si danno anche stati di coscienza fenomenica, come la percezione di particolari del campo visivo, che non vengono integrati nelle informazioni che il soggetto sa riportare e usare. Perciò anche i correlati neurali di questi diversi generi di stati dovrebbero essere di diverso genere. Dato, però, che l'osservazione di stati fenomenici presuppone il resoconto cosciente del soggetto, e dunque una qualche forma di accesso, si pone quello che Block chiama "problema della misura", cioè la ricerca di un protocollo sperimentale per aggirare questa sovrapposizione di stati e distinguere i correlati dei due tipi di coscienza.

Un problema più generale, messo in luce da molti filosofi, è che difficilmente i diversi tipi di processi mentali si possono far corrispondere uno-a-uno a specifici correlati nell'attività cerebrale, a causa del carattere distribuito e variabile (anche a livello individuale) di quest'ultima.

Queste divergenze non devono far pensare che tra i filosofi non sussista alcuna unanimità. Per esempio, è tesi condivisa pressoché unanimemente che la coscienza dipenda dall'attività di un sistema fisico (come un organismo immerso nell'ambiente) e che essa non implichi l'esistenza di alcuna entità immateriale. Anche questa tesi chiama in causa la filosofia cartesiana, stavolta colpevole – secondo un'accusa che non manca quasi mai nei testi introduttivi di filosofi e neuroscienziati – di aver professato un dualismo metafisico privo di possibili conferme sperimentali. Tuttavia, come vedremo, la tensione tra materialismo ed eredità cartesiana continua ad animare le discussioni sul programma di ricerca della "scienza della coscienza", rimandando a un antefatto filosofico non ancora superato. In generale, a differenza di altre vicende filosofico-scientifiche della modernità, la storia del problema della coscienza non appare come un progresso lineare, ma – per usare un'espressione di Daniel Dennett (1985, p. 3) – come l'oscillazione di un pendolo, in cui si continua a tornare su alternative già discusse. Pertanto, sarà utile ricordare alcuni momenti storici del lungo percorso che ha portato al costituirsi di questo campo di indagine multidisciplinare.

| << |  <  |  >  | >> |

Pagina 362

Ma il problema della continuità o discontinuità tra teorie neuroscientifiche e filosofia non si riduce al dilemma tra una nozione univoca e una plurale di "realtà", che come tale si può sciogliere distinguendo diversi livelli di descrizione. L'aspetto più scottante della questione consiste nel fatto che una compiuta teoria sul meccanismo della coscienza potrebbe implicare nuove tecniche di modificazione della coscienza stessa attraverso le sue basi materiali. Rispetto a questa ipotesi i chiarimenti ontologici assumono un rilievo non soltanto metafisico, ma anche medico, etico e politico. Le alternative concettuali che restano implicite nella pratica scientifica tornano, pertanto, ad assumere un valore non meramente verbale.

Anche questo aspetto della questione ha radici moderne. Come mostra il caso di Ricoeur la prospettiva discontinuista costituisce una rielaborazione della vecchia idea, fatta valere dalla tradizione kantiana contro il materialismo e lo spiritualismo, secondo cui la realtà non è riducibile a un unico modo di apparire, come quello oggettivo praticato dalla scienza della natura. Ed è noto come questa prospettiva si legasse alla difesa dell'autonomia della logica, della morale, del diritto, della religione pura rispetto ai principi e alle leggi della scienza della natura. D'altra parte, come ha mostrato la storiografia più recente, il riconoscimento della dimensione culturale della natura umana e della sua plasticità è stato ben presente anche nelle concezioni materialistiche (Wolfe, 2014). A lungo il peso di dicotomie troppo rigide, come materialismo/idealismo, meccanicismo/vitalismo, natura/cultura ha impedito la ricerca di una convergenza teorica, e per questo molti filosofi come Wittgenstein hanno deciso di tagliare il nodo alla radice, isolando i problemi della vita dai problemi della conoscenza scientifica. Il problema della nuova scienza della coscienza riapre dunque una ricerca interrotta, avviata all'epoca in cui il discorso metafisico sull'anima-sostanza fu definitivamente escluso dalla ricerca sul rapporto tra coscienza e cervello, che spesso è ignorata da chi se ne occupa. La questione filosoficamente decisiva, dunque, non è tanto se (e quando) questa ricerca porterà a un nuovo paradigma scientifico-tecnologico, ma se essa saprà riconoscere la presenza di strutture concettuali del passato, che talvolta si annidano nelle teorie scientifiche senza essere notate.

| << |  <  |  >  | >> |

Pagina 371

14
Dal problema mente-cervello
al problema psicologia-neuroscienza
di Mario De Caro e Massimo Marraffa





14.1 Il funzionalismo computazionale e il problema mente-corpo


Un rapporto sistematico tra filosofia e scienze della mente e del cervello esiste da almeno cinquant'anni, ossia dal momento in cui Hilary Putnam diede forma al funzionalismo computazionale (cfr. i saggi raccolti in Putnam, 1975). Altri filosofi quineani lo avrebbero presto seguito – qui basti ricordare Jerry Fodor e Daniel Dennett. Il loro lavoro (ben documentato dalla classica antologia di Block, 1980) ha fatto sì che la filosofia svolgesse un ruolo importante nel processo di maturazione del programma di ricerca della scienza cognitiva classica, fino a farne uno dei vertici del cosiddetto "esagono cognitivo".

Nella forma più concisa, il contributo di questi filosofi è stato quello di esplicitare e ispezionare il "nucleo metafisico" della scienza cognitiva, ovvero l'idea di un livello di analisi, il livello dell'elaborazione di informazioni, situato tra la sfera della fenomenologia e quella della neuroscienza. Con questa idea il cognitivismo intendeva contrapporsi sia al mentalismo coscienzialistico della prima psicologia sperimentale, sia all'antimentalismo della psicologia comportamentista. Diversamente dall'introspezionismo sperimentale della fine dell'Ottocento, il cognitivismo concepiva la mente non già come una collezione di contenuti di coscienza, ma come un insieme di funzioni psicobiologiche che si autopresentano secondo i modi della soggettività autocosciente. In polemica con il comportamentismo, i cognitivisti rivendicavano la possibilità dell'indagine scientifica sui processi mentali, ora intesi come calcoli su rappresentazioni mentali.

Agli occhi di molti il nuovo mentalismo funzional-computazionale apparve uno di quei rari progressi di cui qualche volta anche la filosofia è capace; una via di uscita dalle secche in cui da secoli era incagliato il dibattito sul problema mente-corpo. Alla prospettiva dualistica, per cui la mente è una sostanza separata dal corpo, si contrapponevano i materialisti, secondo i quali il pensiero, se non è un'entità spirituale autonoma, allora è una cosa, una secrezione del cervello, magari visibile aprendo il cranio. Entrambi gli orientamenti condividevano dunque la tendenza a considerare la mente come qualcosa di oggettivo: una sostanza, secondo gli uni, spirituale e secondo gli altri materiale.

Per superare questo approccio sostanzialistico al problema mente-corpo occorrevano nuovi strumenti concettuali. Innanzitutto, il concetto di soggettività: la psicologia inizia a tenerne conto con la proto-fenomenologia di William James; dopo di lui l'esame delle strutture generali della soggettività umana proseguirà, da un lato, nella tradizione fenomenologica ed esistenzialista e, da un altro lato, nella filosofia analitica. Tuttavia, si è cominciato a capire qualcosa di più del problema della soggettività solo dopo l'elaborazione dei concetti di funzione e di informazione. Il concetto di funzione psicologica viene messo a punto da Kurt Lewin fra gli anni Trenta e Quaranta del secolo scorso; quindi, nei decenni successivi, l'interazione fra psicologia e informatica consentirà di definire le funzioni psicologiche in termini di segnali-informazione (cfr. Marraffa, 2011b, p. XXXIII).

E così siamo giunti al funzionalismo computazionale. Nell'ottica di questa dottrina è chiaro dove sbagliavano i materialisti del Settecento (e i positivisti dopo di loro): i dati fenomenologici non sono oggetti misurabili; sono invece effetti, l'esito del presentarsi alla coscienza di un insieme di funzioni psicobiologiche – le quali, per la scienza cognitiva, sono elaborazioni di informazione realizzate nella "circuiteria" neuronale. E tuttavia, a dispetto delle sue virtù concettuali, oltreché empiriche, negli ultimi trent'anni la concezione della mente come elaboratrice di informazioni è stata stretta sotto assedio: minacciata, da un lato, da coloro che, forti del tumultuoso sviluppo delle neuroscienze, vorrebbero risolvere – senza se e senza ma – la mente nel cervello; e dall'altro lato, da forme sempre nuove di comportamentismo che mirano a dissolvere la mente nell'ambiente.

In questo capitolo rivolgeremo la nostra attenzione al primo filone critico, quello che trae alimento dalle neuroscienze. La nostra trattazione avrà un carattere storico-concettuale. Prenderemo le mosse dalla prima contrapposizione fra l'approccio identitista al problema mente-cervello e l'interpretazione ontologica del funzionalismo computazionale come una forma di fisicalismo non riduzionistico. Vedremo quindi come questa metafisica della mente sia stata messa in discussione da autori come Jaegwon Kim , Paul e Patricia Churchland , i quali hanno promosso, in modi diversi, nuove forme di riduzionismo psiconeuronale. Infine, prenderemo in esame una posizione denominata "pluralismo esplicativo" la quale si sforza di trovare una via media fra l'enfasi sull'economia ontologica e l'unificazione della scienza dei riduzionisti e la rivendicazione di un'autonomia forte della psicologia da parte degli antiriduzionisti.

| << |  <  |  >  | >> |

Pagina 393

14.5.2. LA SCOPERTA DI MECCANISMI


Come vengono scoperti i meccanismi? Dalla storia della scienza emerge una regolarità. La costruzione di una spiegazione meccanicistica procede in base all'applicazione di due strategie euristiche: la scomposizione e la localizzazione. Per identificare parti (o entità) e operazioni (o attività), i ricercatori devono scomporre il meccanismo in parti (scomposizione strutturale) e operazioni (scomposizione funzionale). Storicamente, per ciò che concerne i meccanismi psicologici, queste scomposizioni sono state portate avanti da differenti indagini disciplinari. Tuttavia, parti e operazioni sono intimamente connesse: le parti non sono solo componenti fisicamente separabili di un meccanismo, ma componenti coinvolte in operazioni o, nei termini di Craver, "entità agenti organizzate". Il processo che collega parti e operazioni è detto, invece, "localizzazione", poiché localizzare un'operazione significa assegnarla a una parte specifica (cfr. Bechtel, 2008; Bechtel, Richardson, 2010).

Solitamente, il primo passo nella scomposizione di un meccanismo è l'approccio della localizzazione semplice: all'interno del meccanismo viene identificata una componente che è vista come unica responsabile dell'attività del meccanismo stesso. Tale localizzazione è però solo l'abbozzo di una spiegazione meccanicistica. Di norma, infatti, emergono prove che, denunciando i difetti di questo tipo di localizzazione, tracciano le direttrici lungo le quali va condotta la loro revisione. Si passa così a una localizzazione complessa, vale a dire alla scoperta che anche altre componenti del meccanismo sono responsabili della sua attività.

Secondo Zawidzki e Bechtel (2004), un modello pluralista della co-evoluzione di psicologia e neuroscienza richiede che scomposizione e localizzazione interagiscano informandosi reciprocamente. In tal modo, si prendono le distanze dall'approccio top down alla scomposizione funzionale che, secondo i due autori, ha dominato l'analisi del compito nella scienza cognitiva classica e la sperimentazione comportamentale in psicologia cognitiva – per cui prima si sviluppa la scomposizione funzionale e solo in un secondo momento, se mai accade, questa viene collegata ai processi neurologici soggiacenti.

Questa critica della scomposizione puramente top clown è pienamente condivisibile. Come ci ha insegnato François Jacob (1977), l'evoluzione del vivente è cosa ben diversa dall'evoluzione tecnologica. Se un ingegnere è in condizione di costruire una macchina assemblando i materiali che giudica più idonei, in conformità ai principi della progettazione razionale, l'evoluzione è un bricoleur, che utilizza, secondo una logica approssimativa e pasticciona, qualunque cosa ha a disposizione per raggiungere il suo scopo. Per fare solo un esempio, i polmoni umani si sono evoluti attraverso un processo di "rabberciatura" delle vesciche natatorie dei pesci. Un ingegnere avrebbe potuto progettare i nostri polmoni partendo da zero, l'evoluzione ha dovuto invece prendere un meccanismo preesistente e adattarlo alla funzione respiratoria. Il frutto del bricolage evoluzionistico è allora un tipo di macchina definibile come un kluge, una soluzione goffa e inelegante a un problema.

La distanza che separa la risoluzione biologica dei problemi da quella ingegneristica è il fondamento dell'approccio interattivo alla spiegazione meccanicistica proposto da Zawidzki e Bechtel in alternativa all'approccio top down. A loro giudizio, tale approccio è esemplificato nel modo migliore dalla neuroscienza cognitiva, la quale costruisce spiegazioni meccanicistiche in cui la scomposizione e la localizzazione interagiscono alla ricerca di un equilibrio riflessivo. Ciò ha due conseguenze.

La prima conseguenza è che l'identificazione delle strutture neuronali viene a legarsi strettamente con la scomposizione delle capacità cognitive: l'assegnazione di una funzione cognitiva a una struttura neuronale è uno dei principali criteri della sua individuazione (Bechtel, Mundale, 1999). In questo caso la relazione interdisciplinare va dalla psicologia alla neuroscienza.

La seconda conseguenza del carattere interattivo della relazione fra scomposizione e localizzazione consiste nel fatto che le prove neuroscientifiche possono costituire una guida euristica per la costruzione di modelli di elaborazione di informazioni, imponendo revisioni delle scomposizioni funzionali proposte in sede psicologica. Questa volta la relazione interdisciplinare va dalla neuroscienza alla psicologia.

In breve, viene qui proposta una prospettiva dialettica sulla relazione tra psicologia e neuroscienza: da un lato, la conoscenza funzionale ottenuta attraverso le ricerche psicologiche ci consente di identificare i meccanismi neuronali; dall'altro, la conoscenza della struttura è una guida euristica per lo sviluppo di modelli psicologici più sofisticati.

| << |  <  |  >  | >> |

Pagina 403

15
Fisica e filosofia oggi
di Carlo Rovelli





15.1 Che cos'è la scienza? I dati e le idee


Quando insegniamo ai nostri studenti, diciamo loro di avere delle teorie su come funziona la scienza. La scienza è basata su metodi ipotetico-deduttivi: abbiamo osservazioni, abbiamo dati, i dati hanno bisogno di essere organizzati in teorie. Per questo abbiamo le teorie. Queste teorie sono in qualche modo suggerite o prodotte dai dati e poi controllate in base ai dati. Con il passare del tempo, acquisiamo più dati, le teorie si evolvono, ne abbandoniamo una e ne troviamo una migliore, che fornisce una migliore interpretazione dei dati e così via.

Questa è un'idea diffusa di come funziona la scienza. Essa implica che la scienza sia centrata sul suo contenuto empirico, che sarebbe il contenuto veramente interessante e rilevante della scienza. Le teorie cambiano, ma il loro contenuto empirico è la parte "solida" della scienza. Questa idea della scienza mette me – scienziato teorico – un po' a disagio. Sento che manca qualcosa. Manca una parte della storia. Che cosa? Non sono sicuro di avere la risposta definitiva, ma voglio presentare alcune idee su qualche altro aspetto fondamentale della scienza.

Questa riflessione è particolarmente rilevante oggi, per la scienza e in special modo per la fisica, perché, se posso essere polemico, nel mio campo, la fisica teorica fondamentale, stiamo fallendo da trent'anni. Per qualche ragione, in fisica teorica fondamentale non c'è stato un successo decisivo negli ultimi decenni, dopo il modello standard.

Naturalmente ci sono idee. Queste idee potrebbero rivelarsi corrette. La gravità quantistica a loop potrebbe rivelarsi corretta oppure no. La teoria delle stringhe potrebbe rivelarsi corretta oppure no. Ma non lo sappiamo, e per il momento la natura non si è pronunciata né in un senso, né in un altro.

Il mio sospetto è che questo possa dipendere, in parte, dal fatto che abbiamo idee sbagliate sulla scienza e che stiamo facendo qualcosa di sbagliato dal punto di vista metodologico, almeno in fisica teorica, e forse anche in altre scienze.

| << |  <  |  >  | >> |

Pagina 411

15.5 L'unificazione della fisica e la ricerca di una teoria finale


Riassumendo, io penso che la scienza non riguardi i dati, il contenuto empirico e la nostra consueta visione del mondo, ma riguardi il superamento delle nostre idee e il continuo oltrepassamento del senso comune. La scienza è una continua sfida al senso comune e la base della scienza non è la certezza, ma la continua incertezza, e direi finanche la gioia di esaminare i nostri pensieri, consci che in ognuno di essi c'è probabilmente un'enorme quantità di pregiudizi ed errori e tentare di imparare ad allargare il nostro sguardo, sapendo che c'è sempre un punto di vista superiore che ci aspettiamo di raggiungere in futuro.

Nel mio campo, la fisica, siamo molto lontani da una teoria finale del mondo. Ogni speranza di poter dire che siamo quasi arrivati a risolvere tutti i problemi non ha senso, a mio parere. E sbagliamo a sacrificare il valore di teorie come la meccanica quantistica, la relatività generale e speciale, gettandole via per cercare di fare qualcos'altro a casaccio. Dovremmo imparare qualcosa di nuovo sulla base di quello che già sappiamo e, allo stesso tempo, dovremmo prendere la nostra prospettiva attuale per quello che è – la migliore che abbiamo al momento –, continuando a svilupparla.

Questa idea della scienza ovviamente influenza il mio lavoro scientifico. Nell'attuale situazione della fisica fondamentale io vedo diversi problemi. Uno è il problema dell'unificazione. Teoria unificata significa di solito una teoria che unifica tutte le forze e tutti i campi: una "teoria del tutto". Credo che al momento non sappiamo nulla di una teoria unificata e i tentativi di scriverla sono prematuri e mal concepiti. Io mi occupo di un problema molto più specifico: la gravità quantistica. Gravità quantistica significa semplicemente la teoria quantistica della gravità, cioè del campo gravitazionale.

Si tratta di un problema notevole, a causa della relatività generale. La gravità è spazio-tempo: questo lo abbiamo imparato da Einstein. Fare la gravità quantistica significa capire che cos'è uno spazio-tempo quantizzato. E concepire uno spazio-tempo quantizzato richiede alcuni cambiamenti cruciali nel modo in cui pensiamo lo spazio e il tempo. Oggi ci sono, a mio parere, due principali direzioni di ricerca: quella su cui lavoro io, la gravità quantistica a loop, e le stringhe. Non si tratta semplicemente di due diversi insiemi di equazioni, ma di teorie basate, in un certo senso, su diverse filosofie della scienza.

Quella su cui lavoro è basata sulla filosofia che ho appena descritto, e questa è in certo modo la ragione che mi ha spinto a pensare alla filosofia della scienza. L'idea è la seguente. La nostra conoscenza migliore sullo spazio-tempo deriva dalla relatività generale. La nostra conoscenza migliore sulla meccanica deriva dalla meccanica quantistica. Sembra esservi una difficoltà nell'unire i due pezzi del puzzle, che non combaciano bene. Ma la difficoltà potrebbe dipendere dal modo in cui affrontiamo il problema. L'informazione migliore che abbiamo sul mondo è contenuta in queste due teorie, perciò prendiamo la meccanica quantistica sul serio, credendo per quanto possibile al suo contenuto, per esempio modificandola leggermente per renderla relativistica o in altri modi. Prendiamo anche la relatività generale molto sul serio. La relatività generale ha caratteristiche peculiari e specifiche simmetrie. Cerchiamo di capirle profondamente e di vedere se nel modo in cui si presentano, o forse con qualche piccola modifica e adattamento, possano accordarsi con la meccanica quantistica per darci una teoria. Tutto questo, anche se la teoria che ne risulta contraddice qualcosa del nostro modo di pensare. Questo è il modo in cui sta venendo sviluppata la gravità quantistica, nella versione a loop, quella su cui lavoriamo io e altre persone. Esso ci porta verso una specifica direzione di ricerca, un insieme di equazioni e un modo di formulare la teoria.

La teoria delle stringhe è andata nella direzione opposta. È come se essa dicesse che non dobbiamo prendere troppo sul serio la relatività generale, come indicazione del modo in cui funziona l'universo. Anche la meccanica quantistica è stata messa in dubbio allo stesso modo. Immaginiamo che la meccanica quantistica sia sostituita da qualcosa di molto differente. Proviamo a inventare qualcosa di completamente nuovo, una grande teoria da cui in qualche modo possa risultare, entro un certo limite, il contenuto empirico della relatività generale e della meccanica quantistica.

Io non ho fiducia in questa enorme ambizione perché non abbiamo gli strumenti per congetturare come debba essere fatta questa immensa teoria. La teoria delle stringhe è una teoria bellissima. Potrebbe funzionare, ma sospetto che non lo farà, perché non è sufficientemente fondata su tutto ciò che sappiamo del mondo, e specialmente su quel che io penso sia il principale contenuto della relatività generale. La teoria delle stringhe è un grande lavoro congetturale. Ma non penso che la fisica sia mai stata un lavoro congetturale: è stata piuttosto un metodo per disimparare il modo di pensare qualcosa e imparare come pensare un po' diversamente, leggendo qualcosa di nuovo nei dettagli di ciò che sappiamo già.

Copernico non aveva nuovi dati, una grande idea completamente nuova. Semplicemente egli prese Tolomeo, esaminò i dettagli della sua opera – il fatto che gli equanti, gli epicicli e i deferenti avevano determinate proporzioni reciproche – e vi lesse un modo di guardare alla stessa costruzione da una prospettiva lievemente diversa, scoprendo che la Terra non è al centro dell'universo.

Einstein, come ho detto, prese sul serio la teoria di Maxwell e la meccanica classica per arrivare alla relatività speciale. Analogamente, la gravità quantistica a loop è un tentativo di fare la stessa cosa: prendere sul serio la relatività generale, prendere sul serio la meccanica quantistica e metterle insieme, anche se questo significa arrivare a una teoria in cui non c'è un tempo fondamentale, cosicché dobbiamo ripensare il mondo senza un tempo fondamentale. La teoria è per un verso molto conservatrice, perché si basa su quello che sappiamo. Ma è totalmente radicale, perché ci costringe a cambiare qualcosa di grande nel nostro modo di pensare.

I teorici delle stringhe ragionano diversamente. Dicono: «Bene, andiamo fino all'infinito, dove la piena covarianza della relatività generale non c'è. In questo caso sappiamo che cos'è il tempo, sappiamo che cos'è lo spazio, perché siamo a distanze asintotiche, enormi». La teoria è più avventurosa, più diversa, più nuova, ma a mio parere si basa ancora sulla vecchia struttura concettuale e non è collegata con il nuovo contenuto delle teorie che si sono dimostrate empiricamente efficaci. Ecco come il mio modo di vedere la scienza coincide con gli aspetti specifici del mio lavoro di ricerca, in particolare sulla gravità quantistica a loop.

Naturalmente non sappiamo come andrà a finire. Voglio essere chiaro in proposito. Penso che la teoria delle stringhe sia un grande tentativo di andare avanti, effettuato da grandi studiosi. Il mio atteggiamento polemico verso la teoria delle stringhe riguarda soltanto il caso in cui si sente dire – ma accade sempre meno oggi – «oh, conosciamo già la soluzione: è certamente la teoria delle stringhe». Questo è certamente falso e sbagliato. Quel che è vero è che si tratta di un buon insieme di idee. La gravità quantistica a loop è un altro buon insieme di idee. Dobbiamo aspettare e vedere quale di queste teorie finirà col funzionare e con l'essere empiricamente confermata.

| << |  <  |