Autore Paolo Pecere
CoautoreDonald Gillies, Antonio Clericuzio, Paolo Casini, Luigi Ingaliso, Angelo Marinucci, Stefano Salvia, Andrea Cintio, Vincenzo De Risi, Charles T. Wolfe, Telmo Pievani
Titolo Il libro della natura I
SottotitoloI. Scienze e filosofia da Copernico a Darwin
EdizioneCarocci, Roma, 2015, Studi superiori 1027 , pag. 346, cop.fle., dim. 15x22x2 cm , Isbn 978-88-430-7832-5
CuratorePaolo Pecere
LettoreCorrado Leonardo, 2016
Classe epistemologia , filosofia , scienza , storia della scienza , matematica , fisica , biologia












 

| << |  <  |  >  | >> |

Indice


1.   La filosofia e le scienze moderne: una storia comune            11
     di Paolo Pecere

1.1. Filosofia naturale e scienza moderna: tra continuità e tensione 11
1.2. Il percorso: temi, teorie, questioni filosofiche                19
1.3. Limiti                                                          25
     Riferimenti bibliografici                                       27


2.   Perché la rivoluzione copernicana ha avuto luogo in Europa
     e non in Cina?                                                  29
     di Donald Gillies

2.1. Profilo della rivoluzione copernicana                           29
2.2. Perché iniziò la rivoluzione copernicana? La concezione
     kuhniana dell'"accumulo di anomalie"                            41
2.3. Una prospettiva tecnologica alternativa                         44
2.4. "Tech-last" e "tech-first" nella rivoluzione copernicana        46
2.5. Il problema di Needham                                          49
2.6. Europa e Cina nei secoli XVI e XVII                             53
     Riferimenti bibliografici                                       64


3.   Le forme e i moti della materia. Trasformazioni del
     meccanicismo nel Seicento                                       67
     di Antonio Clericuzio

3.1. Origini e interpretazioni del meccanicismo                      67
3.2. L'atomismo del primo Seicento: Sennert, Galileo e
3.3. Il meccanicismo di Gassendi e quello di Descartes               79
3.4. Thomas Hobbes: meccanicismo e materialismo                      87
3.5. Robert Boyle: Mechanical Philosophy ed Experimental Philosophy  93
3.6. Trasformazioni e crisi del meccanicismo: il moto e l'origine
     del concetto di forza                                           99
3.7. Conclusioni                                                    102
     Riferimenti bibliografici                                      103


4.   Newton e la philosophia naturalis nel Settecento               109
     di Paolo Casini

4.1. I principi newtoniani                                          109
4.2. L'immagine di Newton come scienziato positivo                  113
4.3. Paradigmi?                                                     116
4.4. Ruggero Boscovich                                              120
4.5. Christian Wolff                                                115
4.6. Leonhard Euler                                                 127
     Riferimenti bibliografici                                      135


5.   Algebra, infinitesimi e natura nell'età moderna                139
     di Luigi Ingaliso

5.1. Le origini dell'algebra moderna                                140
5.2. Il problema del continuo e le parti "non quante" di Galilei    144
5.3. Le ricerche matematiche di Newton                              153
     Riferimenti bibliografici                                      159


6.   La meccanica classica. Storia, filosofia e fondamenti          163
     di Angelo Marinucci, Stefano Salvia e Andrea Cintio

6.1. La formazione della meccanica classica                         163
6.2. Inerzia e moto: da Aristotele a Galilei                        166
6.3. Materia e forza: da Galilei a Euler                            175
6.4. Movimento, matematica e natura: da Newton a Poincaré           184
6.5. La fisica come scienza di invarianti                           194
     Riferimenti bibliografici                                      214


7.   L'arte dello spazio. La nascita delle geometrie non euclidee
     e la teoria della prospettiva                                  219
     di Vincenzo De Risi

7.1. Spazio e geometrie non euclidee                                219
7.2. Prospettive sullo spazio moderno                               226
7.3. Geometria dell'arte                                            238
7.4. Spazi nascosti                                                 245
7.5. La rivoluzione epistemologica                                  253
     Riferimenti bibliografici                                      265


8.   Il fascino discreto del vitalismo settecentesco e le sue
     riproposizioni                                                 273
     di Charles T. Wolfe

8.1. Il vitalismo tra metafisica ed epistemologia                   273
8.2. Forme di vitalismo                                             277
8.3. Vitalismo sostanziale vs vitalismo funzionale                  280
8.4. Perdenti o vincitori? Stahl, Driesch e la critica
     di Montpellier                                                 286
8.5. Vitalismo come atteggiamento: Canguilhem                       290
8.6. Conclusioni                                                    293
     Riferimenti bibliografici                                      296


9.   Filosofia della genetica ed evoluzione                         301
     di Telmo Pievani

9.1. Difficile stare al passo: per una filosofia della genetica     301
9.2. L'animismo genetico                                            303
9.3. Nature-nurture: un dualismo inservibile                        307
9.4. L'ereditarietà epigenetica: una materia prima molto più ricca
     per l'evoluzione                                               309
9.5. Risorse innate e contesti di sviluppo                          311
9.6. Dal Junk DNA al Jungle DNA                                     315
9.7. L'impatto sulla teoria neodarwiniana: un approccio lakatosiano 321
9.8. La genetica e il neodarwinismo del XXI secolo                  327
     Riferimenti bibliografici                                      330


     Indice dei nomi                                                333

     Gli autori                                                     343


 

 

| << |  <  |  >  | >> |

Pagina 11

1
La filosofia e le scienze moderne:
una storia comune
di Paolo Pecere



Questo volume traccia un percorso attraverso i temi e le teorie che hanno maggiormente alimentato la riflessione sui rapporti tra scienze e filosofia dalla rivoluzione scientifica al XIX secolo. Nei diversi saggi si trovano trattazioni aggiornate di temi come la rivoluzione copernicana, la matematizzazione della natura, il metodo sperimentale, il meccanicismo, il vitalismo, il determinismo biologico, e di teorie o campi disciplinari come la meccanica razionale, le geometrie moderne, la teoria dell'evoluzione. A questo si affianca un secondo volume, dedicato a vicende e autori che vanno dall'inizio del XX secolo a oggi, per comporre un itinerario complessivo attraverso la storia comune della filosofia e delle scienze moderne, che si caratterizza per l'interdisciplinarità e per l'attenzione allo stato attuale delle ricerche: i contributi presentano infatti il lavoro congiunto di filosofi, storici e scienziati i quali, oltre a offrire un profilo dei rispettivi campi di studio, avanzano prospettive di ricerca originali e aperte.




1.1
Filosofia naturale e scienza moderna:
tra continuità e tensione



Tra le premesse che motivano quest'opera c'è la constatazione di una forte continuità problematica tra filosofia e scienze, che a sua volta si basa prima di tutto su un dato di fatto storico: il radicamento comune della filosofia e delle scienze moderne. Questa circostanza è spesso ricordata dagli scienziati di oggi, per esempio da quei fisici che riconoscono a Newton o a Einstein la qualifica di "filosofi", salvo poi osservare che la filosofia con l'andare del tempo non è più stata in grado di stare al passo con le scienze, rimanendo un residuo inservibile. Simili prese di posizione, per quanto spesso fondate su informazioni storiche superficiali, permettono di ricordare un aspetto essenziale e ancora valido della questione: la continuità problematica tra indagine filosofica e scientifica è stata, fin dall'epoca della rivoluzione scientifica, un motivo di sovrapposizione, ma anche di tensione. Per riconoscerlo basta menzionare rapidamente alcuni casi di grande rilievo.

Θ noto che Galileo Galilei, dopo il grande successo del Sidereus nuncius, ricevette dal granduca di Toscana il titolo di "matematico e filosofo". Molti storici della scienza, da Cassirer a Koyré, hanno sostanzialmente giustificato questo doppio titolo, insistendo su quanto proprio la riscoperta di alcune idee filosofiche del platonismo avesse guidato la polemica di Galilei contro la filosofia aristotelica, a sostegno dell'astronomia copernicana e dell'applicazione della matematica alla natura. D'altra parte, nonostante la cultura filosofica di Galilei (che era peraltro competentissimo anche in musica, poesia, pittura, ingegneria), i cenni alla tradizione filosofica occupano uno spazio minimo nel corpus delle sue opere, e c'è stato finanche chi ha ridimensionato l'orgogliosa rivendicazione del titolo di "filosofo" e la convinta adesione all'eliocentrismo, riconducendole a mosse di opportunità legate al consolidamento della sua posizione a corte (Biagioli, 1993). Ma non c'è dubbio che Galilei avanzò sul terreno filosofico, pretendendo di difendere «contro a qualunque filosofo» la «dottrina» ricavata dalle sue scoperte astronomiche e perciò entrando in conflitto con dottrine e metodologie tipiche della filosofia peripatetica, allora dominante soprattutto nell'insegnamento universitario.

Un caso analogo di conflitto di competenze si trova in Descartes. Nelle pagine del manoscritto Le monde — l'esposizione di fisica che Descartes decise di lasciare inedita dopo la condanna di Galilei del 1633 — si fa riferimento molte volte al punto di vista dei «filosofi», cioè degli aristotelici, che sostengono tesi diverse su questioni fondamentali come la natura delle qualità sensibili, della materia, del movimento. Descartes scrive che sua intenzione non è «contraddire» i filosofi, ma usare concetti diversi, validi in via ipotetica per un «mondo immaginario». Di fatto propone la sostituzione di una filosofia naturale con un'altra, che nelle opere successive sarà basata su una nuova argomentazione razionale a sostegno dell'esistenza di Dio e dell'immortalità dell'anima. Questa intenzione di rinnovamento diverrà esplicita con i Principia philosophiae, progettati come un «corso» di filosofia per l'insegnamento universitario, riguardo a cui Descartes ipotizzava inizialmente un'operazione editoriale di aperta sfida: la pubblicazione nel medesimo tomo di un corso tradizionale di filosofia scolastica, che avrebbe avuto l'obiettivo di insegnare agli allievi a «disprezzare» quest'ultima. Nel caso di Descartes, dunque, il consolidamento concettuale delle nuove scienze viene presentato come inseparabile da una nuova filosofia tout court, e proprio per questo, poiché ambisce alla verità, entra in conflitto con l'assetto tradizionale del sapere. Col tempo le conseguenze istituzionali di questo programma si sarebbero effettivamente realizzate: alla fine del XVII secolo la filosofia cartesiana divenne dominante nell'Università di Parigi, esercitando poi un influsso sulle attività dell'Accademia delle Scienze di Parigi (Brockliss, 2006).

Infine, anche l'opera di Newton rappresenta un esempio di questo genere di tensioni interne alla filosofia naturale. Per quanto il rapporto di Newton con la filosofia fosse controverso e per certi versi eccentrico rispetto a quello di scienziati come Galilei, Descartes e Kepler — per esempio il disinteresse per l'elaborazione metafisica sulla natura si combinava con un ambizioso lavoro di esegesi biblica — gli studiosi hanno da tempo chiarito, attraverso lo studio degli inediti, che il confronto con la filosofia cartesiana fu uno dei momenti fondamentali per l'elaborazione della sua nuova fisica (lo stesso titolo del suo capolavoro Philosophiae naturalis principia mathematica poteva implicare in tal senso un sottile riferimento polemico ai Principia non matematici cartesiani). Anche nei testi pubblicati, che entrarono da subito nel canone della scienza moderna, questa tensione non era risolta: il rifiuto delle «ipotesi metafisiche o fisiche» e le nuove «regole del filosofare », che prescrivevano la parsimonia e il controllo empirico in tutte le spiegazioni dei fenomeni, coesistevano con l'impiego di concetti di cui Newton riconosceva l'eccedenza rispetto ai limiti dell'esperienza. Rimandando ai «filosofi naturali» il compito di indagare la causa della gravità, Newton cercava di conservare la coerenza della filosofia sperimentale: in generale, le molte ipotesi sulla natura delle forze attrattive e repulsive, presentate negli Scholia ai Principia mathematica e nelle Queries dell' Opticks, andavano tenute ai margini della trattazione propriamente scientifica e rimandate al vaglio di future esperienze. Tuttavia il fatto stesso che egli, nella seconda edizione dell' Opticks (1717), proponesse ipotesi ancora sperimentalmente infondate sulla causa della gravità aveva lo scopo – scriveva Newton – di «mostrare che non considero la gravità una proprietà essenziale dei corpi» e questo dipendeva dall'esigenza filosofica di ribadire che ogni attività della materia deve dipendere da Dio. Del resto, anche la posizione dei concetti di spazio, tempo e moto assoluti a capo dell'edificio dimostrativo dei Principia attestava la presenza di una dimensione non strettamente empirica nella teoria newtoniana, che risultava inseparabile dalla sua ambizione filosofica.

In effetti la diffusione della scienza newtoniana avrebbe profondamente influenzato la nuova cultura filosofica europea, perfino la metafisica, soprattutto attraverso la sua interpretazione empiristica. Come scrisse d'Alembert nel Discours préliminaire de l'Encyclopédie, istituendo un vero e proprio parallelismo, «Locke intraprese con successo ciò che Newton non aveva osato o forse potuto fare» e pertanto «creò la metafisica, press'a poco come Newton aveva creato la fisica»: cioè attraverso un analogo percorso di rifiuto di un sapere fondato sulle «astrazioni», sulle «questioni ridicole» e sui «libri» che trasmettevano idee antiche – il sapere scolastico, più volte criticato da Bacone, Descartes, Galilei e altri – in cui la metafisica era ricondotta a una «fisica sperimentale dell'anima» (d'Alembert, 1751, trad. it. pp. 45-6).

Il riferimento all' Encyclopédie è particolarmente significativo. Proprio in quell'opera, con i suoi precisi ideali di rinnovamento del contenuto e dell'assetto istituzionale del sapere, oltre che della cultura e della politica in senso più ampio, trova compimento la coincidenza tra "nuova filosofia" e "nuova scienza" che era implicita nelle tensioni di cui abbiamo detto. Così, nella genealogia del Discours préliminaire, Bacone è annoverato tra i custodi della filosofia, all'epoca in cui questa era combattuta da «avversari ignoranti e malevoli», ed è ritenuto per le sue idee sperimentali «il più grande [...] tra i filosofi» (ivi, p. 38); Descartes – ricordava ancora d'Alembert – è stato autore di risultati più solidi in matematica che in filosofia, tuttavia ha avuto un ruolo fondamentale per la trasformazione di una filosofia in cui «era tutto da fare» e «ci ha aperto la strada» (ivi, p. 41); Newton «dette alla filosofia una forma nuova» (ivi, p. 42.). E anche Galilei è stato tra gli «illustri filosofi» che «hanno [...] grandemente contribuito al progresso delle scienze ed hanno, per così dire, sollevato un lembo del velo che ci occulta la verità» (ivi, p. 45). Nello stesso gruppo venivano inclusi Harvey, Huygens, Pascal, Malebranche, Boyle, Vesalio, Sydenham, Boerhaave e altri anatomisti e fisici. Θ evidente, in questo discorso, l'impossibilità di separare filosofi e scienziati in due classi.

| << |  <  |  >  | >> |

Pagina 18

Ciononostante la continuità problematica di cui abbiamo qui ripercorso alcuni tratti non è mai andata del tutto perduta. Già dalla metà del XIX secolo, quando il positivismo degli scienziati, da una parte, e l'eredità dell'idealismo tedesco o alcuni sviluppi dello spiritualismo cristiano, dall'altra, alimentavano un antagonismo tra filosofi e scienziati, cominciava a nascere in Europa quella riflessione epistemologica che avrebbe costituito il terreno di coltura per una nuova concezione positiva dei rapporti tra le diverse discipline. Su questo terreno si formarono personaggi come Helmholtz e Mach, Poincaré e Duhem, poi anche i celebrati "filosofi-scienziati" Einstein, Bohr e Heisenberg e "filosofi scientifici" come Schlick e Reichenbach, tutti animati dalla consapevolezza di una continuità problematica tra conoscenza storica della scienza, indagine scientifica e riflessione filosofica. Tra le conseguenze di quel grande laboratorio filosofico che fu la cultura filosofico-scientifica europea tra XIX e XX secolo vi è stata la nascita disciplinare della filosofia della scienza, ma anche l'esigenza storiografica di ripercorrere e interpretare, attraverso i suoi protagonisti e le sue idee, il lungo antefatto che dalla rivoluzione scientifica aveva portato alla separazione tra filosofia e scienza, e dunque alle condizioni storiche – ancora attuali – per cui potesse darsi l'idea di una specifica e separata disciplina epistemologica.

Le nuove sistemazioni disciplinari non hanno dunque spento la tensione problematica che le ha originariamente provocate, e che spinge frequentemente a riaprire il dossier di una vicenda inconclusa. A testimonianza di ciò, questo volume, riprendendo il filo conduttore delle vicende appena tratteggiate, raccoglie i contributi di storici e filosofi della scienza, che esaminano episodi fondamentali della scienza moderna leggendovi in filigrana questioni ancora irrisolte e definizioni tuttora controverse. Così, per esempio, il problema dell'origine della rivoluzione copernicana diventa occasione, nel saggio di Donald Gillies, per una riflessione sulla teoria kuhniana dei paradigmi scientifici e del loro mutamento; il problema del vitalismo, a lungo considerato un episodio fondativo ma superato nella storia della biologia, diventa nel saggio di Charles T. Wolfe il momento cruciale in cui si gioca tuttora l'identità metodologica delle scienze della vita; e ancora, nel saggio di Telmo Pievani, il problema del consolidamento della teoria dell'evoluzione, lungi dal risolversi con Darwin o con la "sintesi moderna" elaborata nel XX secolo in base alla genetica, si rivela un processo ancora in corso, alla luce di recentissimi dati sperimentali e dell'esigenza teorica di interpretarli.




1.2
Il percorso: temi, teorie, questioni filosofiche



I contributi qui raccolti convengono su alcune constatazioni ben attestate nella ricerca storico-epistemologica contemporanea, che sono comprovate di volta in volta attraverso l'esame di diversi temi e teorie scientifiche. La prima è che le parole chiave che hanno formato il lessico della scienza moderna – come "rivoluzione scientifica", "meccanicismo", "vitalismo", "metodo sperimentale" e così via – lungi dal potersi ridurre a formule valide o questioni chiuse una volta per tutte, racchiudono una dinamica storica e teorica per molti versi aperta e non lineare. La seconda è che le stesse teorie, al di là della forma canonica che di volta in volta si è consolidata presso la comunità scientifica ed è stata trasmessa nell'insegnamento universitario – come la meccanica razionale, la teoria dell'evoluzione e le geometrie non euclidee –, corrispondono in realtà a complessi dottrinali in mutamento, in cui le questioni irrisolte ispirano nuova ricerca e le trasformazioni concettuali non corrispondono sempre a brusche rivoluzioni, ma agiscono spesso sotterraneamente e talvolta in base a fattori estranei alla metodologia scientifica dominante. La terza constatazione è che la riflessione filosofica sulle scienze, prima che essere la prestazione autonoma di una specifica disciplina, agisce come una funzione intrinseca a un'elaborazione distribuita su diversi ambiti disciplinari e competenze professionali, che storicamente ha spesso giocato un ruolo chiave per lo sviluppo delle teorie scientifiche.

Alla luce di questo triplice riconoscimento i diversi saggi che compongono il volume considerano diverse vicende cruciali della scienza moderna, riesaminando anche alcune figure notissime come Copernico, Descartes, Galilei, Leibniz, Newton, Darwin, la cui comprensione è ormai inseparabile da un'eredità problematica non esaurita. Alcuni di questi scienziati compaiono in diversi punti del volume (per esempio Galilei è trattato separatamente per l'eliocentrismo, per la teoria corpuscolare, per il concetto di infinitesimo, per la legge d'inerzia). Ne risulta un percorso fitto di collegamenti e rimandi interni, di cui conviene offrire qui una ricognizione sintetica.

| << |  <  |  >  | >> |

Pagina 25

1.3
Limiti



Un tema ricorrente nel volume è la questione dei limiti della conoscenza scientifica, che caratterizza molte delle vicende fondamentali della scienza moderna, interessando molteplici campi di indagine: dal problema della verità dell'astronomia eliocentrica e dei modelli meccanici del mondo fino al tema newtoniano dell'ignoranza delle cause della forza con le sue molte variazioni teoriche (empiristiche e scettiche, metafisiche e trascendentali) e applicazioni disciplinari (dalla fisica alla chimica e alle scienze della vita). Alla fine del XIX secolo, con la crisi del meccanicismo come visione complessiva della natura (in scienziati come Helmholtz e Mach), il tema comparirà in forme ancora nuove, a testimonianza del fatto che la tesi di una limitatezza intrinseca della conoscenza scientifica va sempre associata, nella vicenda della scienza moderna, a uno specifico insieme di concetti e teorie.

Un episodio particolarmente significativo di questa vicenda, mentre conferma questa conclusione, ci permette di gettare un ponte tra il campo d'indagine di questo volume e quello del successivo. Nel 1872 il grande fisiologo tedesco Emil Du Bois-Reymond, allora rettore dell'Università di Berlino e presidente dell'Accademia delle Scienze, pubblicò il discorso άber die Grenzen des Naturerkennens (Sui limiti della conoscenza della natura) in cui indicava due problemi ai quali la scienza non avrebbe mai potuto dare una soluzione: la conoscenza, formulata in termini fisici, di che cosa siano la materia e la forza; la spiegazione di come la coscienza emerga dai processi fisici e chimici. Gli interpreti discutono sull'obiettivo di questo discorso, che era forse indirizzato a liberare il campo dell'indagine scientifica dal sospetto di materialismo (una concezione verso cui inclinava Du Bois-Reymond), che all'epoca pesava gravemente sulla libertà degli scienziati tedeschi e non solo. Si trattava del resto di temi non del tutto nuovi, ma anzi — come ricordava lo stesso Du Bois-Reymond — ben presenti nella riflessione filosofica moderna (per esempio in Leibniz), che erano rimodulati a partire da un'immagine meccanicistica della natura proiettata sulle scienze fisiche, chimiche e della vita. In ogni caso l'analisi di Du Bois-Reymond — conclusa dalla formula Ignorabimus — diede luogo a una disputa ampia e aspra (il cosiddetto Ignorabimus-Streit) che coinvolse scienziati, filosofi e finanche letterati nei paesi di lingua tedesca e oltre, con conseguenze perduranti fino al secolo successivo.

Nei primi decenni del XX secolo le formule di Du Bois-Reymond, spesso riassunte genericamente nella tesi secondo cui la conoscenza scientifica può incontrare limiti intrinseci alla sua espansione, sarebbero state ricordate polemicamente da scienziati e filosofi in vario modo legati alla nascita del Circolo di Vienna e alla sua difesa della concezione scientifica del mondo, come David Hilbert, Ludwig Wittgenstein, Moritz Schlick, Rudolf Carnap e Philipp Frank. La controversia sui limiti della conoscenza scientifica si sarebbe riaccesa diverse volte, in corrispondenza con altrettanti punti nodali e dibattuti dello sviluppo scientifico in campi diversi come la matematica (con il programma fondazionale dell'assiomatica hilbertiana e la sua crisi avviata da Gφdel), la fisica (con le discussioni sulla completezza della meccanica quantistica e sulla possibilità di teorie realistiche alternative a quella canonica), la biologia (con il neovitalismo e, più recentemente, con le ricerche sulla teoria scientifica della coscienza fenomenica). I termini e gli esiti di questo prolungamento della controversia ottocentesca, naturalmente, sono mutati con il mutare delle teorie in questione nel nuovo contesto scientifico e culturale. Ma la trattazione di questo nuovo contesto oltrepassa i confini di questo volume.

| << |  <  |  >  | >> |

Pagina 29

2
Perché la rivoluzione copernicana
ha avuto luogo in Europa
e non in Cina?
di Donald Gillies





2.1
Profilo della rivoluzione copernicana



Prima di affrontare la questione principale di questo articolo è necessario dare una breve descrizione e analisi della rivoluzione copernicana. Nel 1957 Kuhn pubblicò un libro intitolato La rivoluzione copernicana. Egli pubblicò poi, nel 1962, La struttura delle rivoluzioni scientifiche, in cui presentava una trattazione generale delle rivoluzioni scientifiche. Θ ragionevole supporre che questa trattazione sia una generalizzazione di quanto Kuhn aveva scoperto con il suo studio della rivoluzione copernicana, anche se ovviamente nel libro del 1961 Kuhn considera molti più casi di rivoluzioni scientifiche. La breve trattazione della rivoluzione copernicana, che presento qui di seguito, fa uso della cornice teorica generale di Kuhn, che ora illustrerò.

Secondo Kuhn gli scienziati di solito conducono la loro ricerca entro una cornice generalmente accolta di teorie e procedure pratiche che Kuhn chiama "paradigma". La ricerca scientifica, condotta nell'ambito di un paradigma generalmente accolto, è chiamata da Kuhn "scienza normale". La scienza normale, come suggerisce il nome, è considerata da Kuhn come lo stato normale dell'attività scientifica. Occasionalmente, tuttavia, alcuni scienziati possono decidere di rifiutare alcune delle assunzioni generalmente accolte del paradigma dominante e provare a sviluppare la propria disciplina scientifica usando diverse assunzioni. Se un tale movimento acquisisce peso nella comunità scientifica, si apre un periodo di scienza non-normale e rivoluzionaria, che è caratterizzato dai conflitti tra quelli che continuano ad accettare il vecchio paradigma (i conservatori) e quelli che rifiutano parti del vecchio paradigma (i rivoluzionari). Se i rivoluzionari hanno successo, emerge un nuovo paradigma, che viene accettato in quanto superiore al vecchio paradigma da quasi tutti i membri della comunità scientifica in questione. Una volta che il nuovo paradigma è accettato comincia un nuovo periodo di scienza normale, ma questa si basa ora sul nuovo paradigma invece che sul vecchio. Vediamo ora come questo schema generale si applica al caso della rivoluzione copernicana.

Il vecchio paradigma in questo caso può essere descritto come il paradigma aristotelico-tolemaico. Esso formava la base della scienza normale nell'astronomia e nella meccanica dalla tarda antichità fino all'inizio della rivoluzione copernicana. Secondo questo paradigma, la Terra era immobile al centro dell'universo, e intorno a essa si muovevano, a distanze crescenti dalla Terra, la Luna, Mercurio, Venere, il Sole, Marte, Giove e Saturno. Al confine dell'universo c'era la sfera delle stelle fisse che ruoterebbe intorno alla Terra una volta ogni 14 ore circa. Si supponeva che anche la Luna, il Sole e i pianeti ruotassero intorno alla Terra da est a ovest una volta ogni 24 ore circa. Tuttavia, i pianeti si muovevano anche sullo sfondo delle stelle fisse. Questi movimenti erano generalmente da ovest a est, ma talvolta il movimento normale era interrotto da una strana irregolarità, nota come "retrogressione". In una retrogressione il pianeta si muoveva per un po' verso occidente, e poi riprendeva il suo movimento verso oriente, tracciando così un circuito.

La parte aristotelica del paradigma consisteva nel sistema di meccanica elaborato per spiegare i movimenti osservati. Aristotele divideva l'universo in una regione sublunare e nei cieli. Nella regione sublunare la materia era composta dai quattro elementi: fuoco, aria, acqua e terra. Ognuno di questi elementi aveva un movimento naturale. La terra e l'acqua si muovevano verso il basso, verso il centro dell'universo, ma la terra aveva un movimento discendente più forte dell'acqua. Questo spiegava perché la Terra consisteva di una sfera il cui centro coincideva con il centro dell'universo. Il fuoco e l'aria si muovevano naturalmente verso l'alto, ma il movimento ascendente del fuoco era più forte di quello dell'aria. I cieli erano composti di un quinto elemento chiamato "etere". Questo elemento era considerato prossimo alla perfezione rispetto agli altri quattro, e il suo movimento naturale era circolare, vale a dire un movimento lungo la traiettoria di quella che era concepita quale figura geometrica perfetta – il cerchio.

I movimenti osservati dei corpi celesti, tuttavia, non erano esattamente circolari, pertanto il problema principale dell'astronomia greca divenne quello di spiegare i loro movimenti in termini di combinazioni di movimenti circolari. Usando una varietà di dispositivi tecnici come epicicli, equanti ed eccentrici, Tolomeo riuscì a calcolare le traiettorie della Luna, del Sole e dei pianeti con un grado di accuratezza piuttosto alto. Tuttavia, poiché i suoi dispositivi tecnici non si accordavano perfettamente con la meccanica di Aristotele, rimaneva una tensione all'interno del paradigma che fu molto discussa nel corso del tempo. Oggi abbiamo una situazione simile nel paradigma dominante della fisica teorica. Esso si compone di teoria della relatività e meccanica quantistica, ma queste due parti non si combinano molto bene.

| << |  <  |  >  | >> |

Pagina 40

Questo conclude il mio breve profilo della rivoluzione copernicana. Possiamo osservare come il corso degli eventi corrisponda molto bene allo schema teorico di Kuhn. Prima della rivoluzione, lo studio dell'astronomia e della meccanica era dominato dal paradigma aristotelico-tolemaico, che era stato alla base della scienza normale per lungo tempo. Questo paradigma venne sfidato dall'approccio eliocentrico di Copernico, la cui opera, pubblicata nel 1543, diede inizio a un periodo rivoluzionario, caratterizzato da un notevole conflitto tra i sostenitori del vecchio paradigma e coloro che preferivano il nuovo approccio. Nella prima fase della rivoluzione, che durò da Copernico a Kepler, molti astronomi riuscirono a trovare un compromesso adottando l'interpretazione strumentalista dell'astronomia matematica. Questo compromesso, tuttavia, fu reso impossibile dalle scoperte telescopiche di Galileo, che avviarono la seconda fase della rivoluzione. L'aspetto cruciale di questa fase fu lo sviluppo di una nuova meccanica e Newton, partendo dal lavoro dei suoi predecessori, fu capace di raggiungere questo obiettivo. La pubblicazione dei suoi Principia nel 1687, insieme all'accettazione dell'opera da parte della comunità scientifica nei pochi decenni successivi, porta a termine la rivoluzione copernicana e stabilisce un nuovo paradigma. Questo paradigma newtoniano divenne la base di una scienza normale in astronomia e meccanica che durò per quasi duecento anni, fino a quando ebbe inizio la rivoluzione einsteiniana nel 1905.

Fin qui tutto si accorda bene con le idee di Kuhn, ma rimane un problema. Perché iniziano le rivoluzioni scientifiche? Dopotutto, nella trattazione di Kuhn, gli scienziati praticano per la maggior parte del tempo la scienza normale, nella cornice del paradigma dominante. Sono addestrati a spiegare ogni apparente divergenza dal paradigma in un modo che non implica l'abbandono di quel paradigma. Inoltre, hanno a loro disposizione molte tecniche ingegnose per elaborare queste spiegazioni. Si pensi soltanto, nel caso di Tolomeo, agli epicicli, agli equanti e così via. Ma allora perché i ricercatori scientifici, occasionalmente, mettono in discussione il paradigma dominante? Questa, ovviamente, è la domanda a cui dobbiamo rispondere se vogliamo riuscire a spiegare perché la rivoluzione copernicana avvenne in un luogo (l'Europa) piuttosto che in un altro (la Cina). Nel PAR. 2.2 considererò le idee di Kuhn sulla questione del perché le rivoluzioni scientifiche hanno inizio.

| << |  <  |  >  | >> |

Pagina 56

Torniamo ora al secondo fattore chiave della rivoluzione copernicana – l'invenzione del telescopio. Anche qui i risultati sono interessanti. Cominciamo con l'esaminare come venne inventato il telescopio in Europa. Un telescopio poteva essere stato creato soltanto perché in Europa c'era una sviluppata industria manifatturiera del vetro. Perciò dobbiamo cominciare considerando lo sviluppo dell'industria del vetro.

Nel mondo antico, l'industria del vetro fu sviluppata per la prima volta sotto l'Impero Romano e, dopo l'intermezzo del Medioevo, fu sviluppata nuovamente nell'epoca feudale. Né il periodo romano né quello feudale contengono sviluppi molto eccitanti nel campo della scienza teorica, ma contengono invece considerevoli avanzamenti tecnologici. In certa misura la tecnologia si può sviluppare indipendentemente dalla scienza teorica, anche se viene sempre un momento in cui ulteriori avanzamenti tecnologici richiedono, come precondizione, significativi sviluppi teorici.

Per quanto riguarda lo sviluppo dell'industria del vetro, due importanti innovazioni tecnologiche avvennero nel I secolo d.C. La prima fu l'introduzione della nuova tecnica della soffiatura del vetro; la seconda fu la produzione del vetro incolore o vetro acquamarina. Queste innovazioni resero possibile la produzione su larga scala del vetro, che divenne un materiale comune nel mondo romano. Fu usato per le stoviglie, sia recipienti per bere che per conservare i liquidi. Moltissimo vetro romano è sopravvissuto fino a oggi.

Con la caduta dell'Impero Romano d'Occidente e l'arrivo del Medioevo molta manifattura del vetro scomparve. Per esempio il vetro era stato prodotto in notevole quantità nella Britannia romana, ma vi sparì quasi del tutto nel Medioevo. Tuttavia una conoscenza tecnica su come fare il vetro sopravvisse durante il Medioevo in luoghi come Torcello, presso Venezia, in misura sufficiente a rendere possibile un altro progresso una volta che il sistema feudale fu stabilito in Europa.

Con la rinascita del commercio e dell'industria nell'Europa occidentale dell'XI secolo la manifattura del vetro si era sviluppata ed era migliorata. Nel XII secolo era possibile produrre le finestre di vetro colorato delle grandi cattedrali. Nel XIV secolo l'uso delle vetrate nelle case divenne comune (cfr. Bishop, 1971, p. 213).

Gli arabi fabbricavano lenti nell'XI secolo. Qualcuno in Europa occidentale (forse un italiano intorno al 1286) ebbe l'idea di attaccare due lenti a una montatura per produrre un paio di occhiali. Le tecniche erano avanzate al punto che poteva essere prodotto un vetro trasparente a buon mercato e così, a partire dal 1300, si posero le basi per lo sviluppo di un'industria della fabbricazione di occhiali. Questo naturalmente presupponeva l'attività commerciale dei molatori di lenti.

Uno dei maggiori centri europei sia per la produzione del vetro che per la fabbricazione di occhiali era Venezia, dove la produzione era concentrata sull'isola di Murano. Si dice che il finissimo cristallo veneziano sia stato inventato a Murano nel 1443 (cfr. Bautier, 1971, p. 249). Già nel 1301 c'erano regolamenti delle gilde di Venezia che governavano la vendita di lenti per occhiali. Immagini di persone con occhiali da vista compaiono in Italia entro il 1352 e a nord delle Alpi in Germania nel 1403. Gli occhiali da vista devono avere avuto un grande impatto sulla vita e in particolare incrementarono la produttività di molti lavoratori. Prima dell'invenzione degli occhiali, chiunque avesse difetti di vista sarebbe stato escluso dalla lettura e dalla scrittura, oltre che dall'esercizio di molte attività artigianali. L'uso di occhiali riuscì ad aprire queste attività a più persone e anche a permettere che molti, inizialmente dotati di buona vista, potessero continuare a svolgerle molto più a lungo, dato che la vista di solito comincia a peggiorare dopo i cinquant'anni circa.

Alla luce di questi sviluppi è davvero sorprendente che il telescopio non apparve fino al XVII secolo. Dato che le lenti per gli occhiali venivano prodotte regolarmente, c'era bisogno soltanto di un po' di sperimentazione con combinazioni di due lenti per arrivare al telescopio.

Galileo si trovava nella Repubblica di Venezia all'epoca delle sue scoperte telescopiche. Per tutta la vita Galileo si mantenne in contatto con l'industria manifatturiera e con gli artigiani. All'inizio dei suoi Discorsi e dimostrazioni matematiche intorno a due nuove scienze del 1638 descrive il lavoro degli artigiani dell'Arsenale di Venezia e deve aver avuto familiarità anche con l'industria veneziana del vetro. Quando sentì parlare del telescopio dei Paesi Bassi era dunque in una buona posizione per farne produrre uno e apprezzarne il valore.

Confrontiamo ora questa situazione con quella della Cina. In Cina veniva prodotto del vetro, ma il suo uso era limitato a fabbricare perline, placche e dischi decorativi. Inoltre, i reperti archeologici mostrano che questi oggetti di vetro erano rari. I cinesi, al contrario dei Romani, non usarono mai il vetro per le stoviglie e, di conseguenza, non si sviluppò una grande industria cinese del vetro. La ragione di questa situazione era che i cinesi si concentrarono sulla produzione di ceramiche e oggetti metallici, e in queste aree erano molto avanti rispetto agli europei.

Senza un'elementare industria del vetro, tuttavia, non ci fu sviluppo di lenti e occhiali in Cina. Gli occhiali sono menzionati in Cina per la prima volta nel XV secolo e in queste testimonianze si afferma che erano importati. Non vi fu dunque una base industriale per l'invenzione e lo sviluppo del telescopio in Cina.

| << |  <  |  >  | >> |

Pagina 62

Questa è dunque l'analisi da me proposta dei fattori che portarono la rivoluzione copernicana ad aver luogo in Europa e non in Cina. Tre fattori ci si sono presentati come i più importanti. Due di questi sono tecnologici e uno è teorico. Il fattore più importante di tutti è tecnologico, ovvero lo stimolo tecnico prodotto dallo sviluppo del commercio marittimo a lunga distanza. Questo fattore è considerato cruciale. Gli altri due fattori sono classificati come sostanziali piuttosto che cruciali. Il secondo fattore tecnologico è l'esistenza di un'avanzata industria del vetro che portò allo sviluppo di lenti e alla scoperta del telescopio. Il fattore teorico è l'eredità della matematica, della scienza e della filosofia dell'antica Grecia. Tutti e tre i fattori erano presenti in Europa e non in Cina, e perciò nel complesso forniscono una spiegazione del perché la rivoluzione copernicana avvenne in Europa piuttosto che in Cina.

[...]

Non si tratta di abbandonare la teoria secondo cui i problemi tecnologici stimolano la scienza, ma di sostenere che alcuni problemi tecnologici sono più stimolanti di altri. Molto spesso la tecnologia può essere sviluppata su una base più empirica, per prove ed errori, senza richiedere nessuna grande innovazione teorica. A volte, tuttavia, gli sviluppi teorici sono realmente necessari per poter fare un progresso tecnologico. Le cose stavano così, in particolare, con i problemi della navigazione posti dal commercio marittimo a lunga distanza, e furono questi problemi a giocare un ruolo chiave per l'inizio della rivoluzione copernicana. Una volta che la rivoluzione era già in corso e nuove tecniche matematiche venivano sviluppate per l'astronomia, divenne naturale applicare queste tecniche ad altri problemi tecnologici come la costruzione di canali, la ballistica e le pompe per miniere. Non è plausibile, tuttavia, che i tre problemi tecnologici appena menzionati, anche con l'aggiunta di altri problemi simili, sarebbero stati sufficienti a causare una rivoluzione scientifica. Si tratta del genere di fattori che abbiamo definito ancillari, ma non sono né cruciali, né sostanziali.

[...]

Ho sostenuto che il fattore cruciale per l'origine della rivoluzione copernicana fu l'istituzione di un commercio marittimo a lunga distanza (globale). Perché gli europei stabilirono questo tipo di commercio e i cinesi non lo fecero? Come abbiamo visto i cinesi avevano tutte le abilità tecniche di cui c'era bisogno per fare viaggi oceanici di lunga distanza. Perciò, in questo caso, il fattore tecnologico non è critico e dovremmo cercare invece dei fattori sociali. Ora, i profitti del commercio marittimo a lunga distanza andavano principalmente alla classe dei mercanti. Pertanto, forse, come Needham sembra suggerire, la classe dei mercanti fu incapace di perseguire i propri interessi in quella direzione a causa della sua subordinazione ai dotti burocrati che governavano, i cui interessi economici erano principalmente terrestri. Al contrario, le classi mercantili potrebbero essere state più forti in Europa rispetto alle classi legate alla terra. Ma queste congetture ci portano lontano dalle domande relative allo sviluppo scientifico, verso questioni generali che riguardano la storia sociale ed economica. Perciò non le svilupperò ulteriormente in questa sede.

| << |  <  |  >  | >> |

Pagina 219

7
L'arte dello spazio
La nascita delle geometrie non euclidee
e la teoria della prospettiva
di Vincenzo De Risi





7.1
Spazio e geometrie non euclidee



La scoperta delle geometrie non euclidee è normalmente attribuita a Nikolaj Ivanovič Lobačevskij e János Bolyai, che fra la fine degli anni Venti e i primi anni Trenta dell'Ottocento pubblicarono alcune opere geometriche di straordinaria novità, nelle quali presentavano i principi e i primi sviluppi di una geometria affatto differente da quella che si trova nei tredici libri degli Elementi di Euclide e che era stata per più di due millenni la pietra di volta di tutta la scienza antica e moderna. Queste ricerche geometriche furono dapprima ignorate o apertamente avversate e fu, in buona sostanza, soltanto con la pubblicazione postuma degli scritti privati e privatissimi di Gauss, nei quali il grande matematico indulgeva a giudicare possibile questa nuova geometria e persino a dimostrarne alcuni teoremi, che la comunità dei matematici, e poi dei filosofi, prese a interessarsi alle curiose costruzioni escogitate alcuni decenni prima. La grande opera geometrica di Riemann, gli studi di Helmholtz, e poi soprattutto le fruttuose applicazioni che Klein e Poincaré trovarono alla geometria iperbolica (così venne chiamata la nuova teoria), le valsero una posizione di tutto riguardo nel panorama matematico della seconda metà del secolo; la teoria generale della relatività, poi, consacrò le geometrie non euclidee (che nel frattempo si erano moltiplicate e sviluppate enormemente) come uno strumento indispensabile per la ricerca fisica. In ogni caso, non è possibile sopravvalutare l'impatto che esse ebbero nella storia della matematica e dell'epistemologia. La possibilità di sviluppare sistemi geometrici alternativi a quello euclideo si mostrava per la prima volta con la massima chiarezza alla mente degli scienziati e dei filosofi. La matematica stessa doveva essere ora riguardata complessivamente come una scienza di strutture formali definite da sistemi di ipotesi arbitrarie. Essa guadagnava territori sconfinati (e non solo in geometria), che erano semplicemente inconcepibili fintanto che si restava alla concezione classica di Euclide e di tutta la tradizione antica, rinascimentale e della prima età moderna. Θ facile comprendere che si parli di "rivoluzione non euclidea"; giacché tutta la scienza ne uscì infine completamente trasfigurata, al punto che si può collocare abbastanza ragionevolmente il punto di rottura fra la matematica antica e quella moderna, e ancora a noi contemporanea, proprio in quella scoperta geometrica.

| << |  <  |  >  | >> |

Pagina 222

A me pare che il punto di svolta fondamentale, che segna davvero la nascita della geometria moderna, si lasci rinvenire nella sua definizione di "scienza dello spazio". Quest'ultima caratterizzazione della geometria è oggi talmente comune che si crede talvolta, con grave anacronismo, che essa sia stata sempre intesa in questo modo. Al contrario, la nascita di una geometria dello spazio è un prodotto specifico, e importantissimo, della matematica del Settecento. Invano si compulserebbero gli Elementi di Euclide alla ricerca di una sola menzione dello spazio, invano tutto il corpus della matematica antica, medievale e rinascimentale. L'oggetto della geometria classica è sistematicamente individuato, al contrario, nelle singole figure geometriche, nei triangoli, i cerchi, le sfere o le sezioni coniche, mai nello spazio. Talvolta le figure sono complessivamente etichettate sotto il concetto di grandezze o quantità continue (secondo una definizione aristotelica, che si ritrova poi negli Elementi), ma restano oggetti reciprocamente isolati gli uni dagli altri e non inseriti in una più ampia struttura spaziale. E proprio il concetto di grandezza lascia intendere che lo scopo primario della geometria classica dovesse essere quello della misura (del calcolo di lunghezze, aree e volumi), lasciando fuori gli aspetti "non metrici" della geometria, come quelli di configurazione, di posizione reciproca, di incidenza o connessione, proiezione, trasformazione continua, i quali pertengono appunto alla dimensione propriamente spaziale (locale, posizionale) della geometria moderna.

La trasformazione della geometria classica delle figure nella geometria moderna dello spazio fu un processo plurisecolare, che coinvolse tutti i rami della matematica e molte altre discipline ancora (dalla metafisica alla geografia, dalla prospettiva alla meccanica) e si intreccia praticamente con tutti i campi della conoscenza scientifica. Se uno volesse provare a semplificare eccezionalmente questo millenario sviluppo, io direi che esso si lascia dividere in quattro grandi fasi.

La prima fase è quella della geometria greca dell'età classica ed ellenistica, la quale semplicemente esclude qualsiasi rapporto fra la geometria e lo spazio. I geometri ignorano quasi del tutto gli elementi posizionali e spaziali della loro scienza e i filosofi affermano, senza mezzi termini, che gli oggetti geometrici non sono nello spazio; lo spazio stesso, del resto, non è pienamente concettualizzato neppure a livello metafisico o naturale.

La seconda fase incomincia con la tarda antichità e il neoplatonismo; in essa si incomincia a teorizzare un ambiente necessario all'esistenza degli oggetti geometrici, nel quale essi si trovano. Questo sfondo metafisico non è ancora definito in termini spaziali, ma materiali. Esso assume una gran quantità di caratterizzazioni differenti ed è talvolta visto come la materia fantastica che si trova nell'immaginazione e nella quale il geometra traccia (idealmente) le figure delle quali egli studia le proprietà; talaltra è inteso semplicemente come la materia cosmica estesa, che funge da sostrato degli oggetti fisici e quindi anche degli oggetti matematici. In questo vasto panorama, che va da Proclo a Cartesio e che non presenta (a dire il vero) una sostanziale unità teorica, si possono tuttavia rinvenire alcune costanti, principalmente che una qualche forma di estensione è necessaria come condizione di possibilità degli oggetti geometrici, i quali pertanto si trovano in un ambiente comune. Questo ambiente, d'altra parte, non possiede esso stesso alcuna proprietà geometrica ed è matematicamente affatto amorfo – è indagato dall'ontologia, non dalla geometria.

La terza fase consiste nella semplice trasformazione di quello sfondo materiale in spazio e, dunque, nell'affermazione che gli oggetti della geometria sono figure nello spazio e sono concepiti come parti dello spazio cosmico. I primi teorici di questa svolta metafisica furono i platonici del tardo Rinascimento, Francesco Patrizi in particolare, ma le loro idee si diffusero ampiamente nel corso del Seicento e si trovarono a combattere, per lo più, contro la filosofia cartesiana che era rimasta legata all'idea dell'estensione geometrica come sostrato materiale. Newton appartiene a quest'ambito, e così anche la maggior parte degli autori settecenteschi. La trasformazione del sostrato materiale degli oggetti matematici in un sostrato spaziale incomincia ad avere, già in questi autori, alcune conseguenze geometriche; Patrizi stesso (proprio all'inizio di questa evoluzione) ritenne anzi di dover scrivere una Nuova geometria, nella quale egli utilizzava alcuni concetti posizionali, come ad esempio quello di situazione reciproca fra elementi spaziali. Complessivamente, però, la geometria rimaneva classica, perché lo spazio era comunque riguardato come un sostrato geometricamente indeterminato, nel quale si dovevano soltanto collocare gli oggetti geometrici: si trattava insomma di una geometria di figure nello spazio.

Era facile, però, fare il passo successivo: la quarta fase intende lo spazio ambiente come esso stesso dotato di proprietà geometriche; è qui che incomincia la vera e propria geometria dello spazio. Il primo a teorizzare una scienza dello spazio come struttura fu con ogni probabilità Leibniz, il quale escogitò una speciale disciplina geometrica, l' analysis situs, la quale doveva occuparsi del concetto di situazione (posizione reciproca degli oggetti nello spazio) e, attraverso esso, definire e investigare le proprietà dello spazio stesso. Questa geometria era poi fondata su una più generale metafisica dello spazio, che lo intendeva come un sistema di relazioni e rapporti, insomma come una struttura, un oggetto cioè che può essere indagato matematicamente. Nei quarantennali studi di Leibniz sull'argomento, in effetti, troviamo per la prima volta assiomi e teoremi sullo spazio stesso e la descrizione e caratterizzazione di proprietà spaziali assai astratte (e del tutto ignote alla geometria classica), come l'isotropia, la connessione, la completezza lineare, l'omogeneità e via dicendo. Si può quasi dire che la geometria moderna nasca in questi saggi, i quali tuttavia restarono per lo più inediti nel secolo successivo. Le idee geometriche leibniziane, in ogni caso, trapelarono a sufficienza affinché se ne discutesse e alcuni geometri settecenteschi si impegnassero nell'edificazione di una nuova analysis situs.

[...]

Θ quindi interessante cercare di capire come si sia arrivati a teorizzare che la geometria sia la scienza dello spazio (come si sia passati, insomma, dalla fase tre alla fase quattro fra quelle descritte sommariamente). Anche in questo caso, tuttavia, la risposta è complessa e riguarda una gran quantità di figure e di idee, oltre che un percorso storico che abbraccia diversi secoli. Soprattutto, essa è intrecciata con la storia stessa del concetto di spazio, il quale muta radicalmente fra il medioevo e la prima età moderna. Discuteremo adesso una delle vie che poterono condurre all'idea di una geometria dello spazio e di un nuovo concetto di spazio, la quale non è spesso menzionata al riguardo: ossia lo sviluppo di una teoria matematica della prospettiva.

| << |  <  |  >  | >> |

Pagina 264

In ogni caso, Lambert preferisce infine adottare il punto di vista del matematico John Wallis, il quale già nel 1663 aveva dimostrato che l'assunzione del Postulato delle Parallele equivale ad assumere la possibilità delle trasformazioni per similitudine nello spazio. Ma la possibilità di tali trasformazioni è manifestamente su un altro piano rispetto a qualsiasi teorema sull'incidenza delle rette, sulla somma angolare di un triangolo o di qualsiasi altra proprietà delle singole figure geometriche; l'equivalenza di Wallis indica già chiaramente che la questione del parallelismo tocca la struttura stessa dello spazio ambiente. E così, nei suoi scritti posteriori al 1766, Lambert ammette che la geometria sia proprio una scienza dello spazio (non delle figure) e formula il postulato euclideo come la proprietà dello spazio di consentire similitudini qualsiasi. Lo spazio sferico e quell'altro spazio "immaginario" (l'iperbolico) hanno invece la proprietà (non figurale, ma anzi astrattissima) di non consentire tali trasformazioni.

Lambert, beninteso, rimase un euclideo convinto e non ritenne di dover sviluppare in sistema quelle altre due geometrie, né di ammettere che esse modellassero spazi realmente possibili. Dal punto di vista epistemologico, però, il passo fondamentale era stato compiuto. Il Postulato delle Parallele era stato individuato come l'espressione di una proprietà autenticamente spaziale; pertanto una pluralità di strutture spaziali (che soddisfano o no quell'assioma) si erano affacciate agli occhi dei matematici. Lo spazio sferico dell'astronomia e quello della prospettiva erano già noti a tutti e facilmente rappresentabili; quello iperbolico dové attendere Lobačevskij e Bolyai per essere pienamente teorizzato. Ma le condizioni di possibilità per la scoperta delle geometrie non euclidee erano maturate nel XVIII secolo e si erano intrecciate alla progressiva consapevolezza che la geometria ha come oggetto proprio lo spazio stesso. Questa consapevolezza, d'altra parte, aveva cominciato a prender piede con l'avanzare degli studi sulla prospettiva e, in questo senso, è lecito accogliere la tesi di Panofsky, secondo cui il concetto moderno di spazio (e di geometria) trova la sua origine nelle ricerche rinascimentali sul bello.

| << |  <  |  >  | >> |

Pagina 301

9
Filosofia della genetica ed evoluzione
di Telmo Pievani



Nei primi giorni di maggio del 2014 la rivista "Nature" dedica la sua copertina alla prima realizzazione di un DNA "semi-sintetico" o più precisamente "espanso": ricercatori dello Scripps Research Institute di La Jolla in California sono riusciti a inserire nel DNA del batterio Escherichia coli due molecole sintetiche appaiate, chiamate X e Y, che sono andate a unirsi alle quattro basi normali del codice genetico (Malyshev et al., 1014). La novità è che questo DNA integrato nel microrganismo è stato in grado per la prima volta di trascrivere e di replicarsi, è cioè entrato a far parte della vita normale del batterio e non ne è stato espulso come si sarebbe pensato fino a poco tempo fa. Gli scopritori annunciano la nascita di una "biologia a DNA espanso" che avrà notevoli applicazioni, dalla lotta all'inquinamento fino alla produzione di biocombustibili, passando per una serie di straordinari utilizzi in campo medico e farmaceutico. L'idea è che il codice così aggiustato e implementato attraverso l'introduzione di lettere "non naturali" possa generare nuove proteine e forse nuovi organismi viventi, ingegnerizzati appositamente per svolgere funzioni a noi utili, anche in campo terapeutico.




9.1
Difficile stare al passo: per una filosofia della genetica



Le implicazioni filosofiche e bioetiche sono notevoli. I commentatori osservano che adesso è appurato che la scienza può "creare" o "costruire" nuova vita, ovvero sistemi viventi non frutto dell'evoluzione naturale bensì delle biotecnologie. La grande dicotomia fuorviante fra "naturale" e "artificiale" fa subito capolino nei discorsi, mentre sullo sfondo si ergono le potenti paure verso gli organismi geneticamente modificati. Non si sa però se queste creature semi-sintetiche del futuro resteranno a livello di organismi unicellulari usati come fabbriche di sostanze utili o se dobbiamo aspettarci prima o poi animali e piante costruiti su misura. Dalla pacatezza dei contenuti tecnici della scoperta (faticosi, ricontrollati più volte e frutto di precedenti acquisizioni nel fiorente campo della biologia sintetica) si passa in un batter d'occhio a dichiarazioni preoccupate di bioeticisti, a slanci futuristici in avanti e a scenari roboanti degni della più consumata fantascienza. Questi ultimi si basano di solito sul presupposto teorico che il DNA e il suo meccanismo di trasferimento dell'informazione, obiettivamente notevole per stabilità e attendibilità nel corso di miliardi di anni, siano tutto ciò di cui abbiamo bisogno per riprogrammare da capo un organismo.

Sulle riviste specialistiche si nota da diverso tempo che le bioscienze sono diventate il principale terreno di controversia sul tema della responsabilità pubblica degli scienziati, a causa dei possibili effetti, e della futura gestione, delle tecnologie a esse collegate (Herrlich, zoi3). Θ ormai luogo comune che il XXI sia il secolo della biologia (dalla genetica alla neurofisiologia), ma non è facile renderne conto in modo sistematico, tanto diversificati e in rapido aggiornamento sono i campi che appartengono alle scienze della vita contemporanee. I manuali per le scuole superiori vengono riscritti in continuazione, nel tentativo di individuare i fondamenti e le nuove frontiere di questa appassionante avventura di esplorazione nei segreti del vivente. In tutti ormai l'approccio integrato e interdisciplinare è d'obbligo: si parte certamente dalle molecole e dai mattoni costituenti, ma per scalare le vette della regolazione e della comunicazione biologica attraverso una sequenza di inclusioni gerarchiche in sistemi via via più ampi e più complessi.

I due assi centrali di qualsiasi introduzione alla chimica organica sono oggi l'evoluzione biologica (variazione e selezione naturale, fino alla produzione e conservazione della biodiversità) e la biologia dei sistemi. Nel primo caso, occorre seguire i tumultuosi sviluppi più recenti della biologia evoluzionistica, in particolare epigenetica e biologia evoluzionistica dello sviluppo. Nel secondo caso, cresce sempre più l'importanza dello studio computazionale e modellistico delle interazioni complesse (in gran parte ancora sconosciute) che presiedono al funzionamento dei sistemi biologici intesi come totalità integrate. La systems biology, cioè la scienza del vivente inteso come un sistema di sistemi a più livelli, si candida per essere la nuova lente interpretativa della postgenomica e delle proliferanti nuove "omiche". Le ultime tecnologie adottate in laboratorio (dalla bioinformatica al bioimaging cellulare, alle nanotecnologie) stanno infatti riversando una quantità di dati grezzi – di big data, raccolti da grandi consorzi e cordate internazionali, che piovono dalle pubblicazioni specialistiche a ritmo settimanale senza il tempo sufficiente per assimilarli – tale da rendere sempre più urgente uno sguardo integrato e qualitativo, uno studio delle connessioni fra queste evidenze che permetta di proporre nuovi modelli. Diversamente, il rischio è che le bioscienze diventino una mera questione di potenza di calcolo, una corsa muscolare all'accumulo quantitativo di dati, dettata più dalle disponibilità finanziarie che dalle buone domande di ricerca.

Benché non sia intuitivamente immediato cogliere la relazione, è proprio da questo passaggio stretto fra alluvione di nuovi dati e mancanza di quadri di insieme, tra esigenze private di business e libertà della ricerca pura, che derivano molti fraintendimenti nei rapporti fra bioscienze e società nel XXI secolo: le nanotecnologie biologiche sono davvero pericolose? Dobbiamo fermare o regolare la clonazione animale? Che cosa sono realmente gli organismi geneticamente modificati o, per meglio dire, "transgenici"? Quali le possibilità effettive oggi di terapia genica, di medicina rigenerativa e di medicina personalizzata? Quali sono le basi molecolari delle dinamiche tumorali? Che cos'è la vita artificiale? Difficile non cogliere il potenziale culturale e metodologico, oltre che scientifico e tecnico, di questi interrogativi, da condividere e discutere a scuola, in università e nel dibattito pubblico per interpretare insieme i prodromi della scienza del futuro. La filosofia della genetica può dare in tal senso un contributo prezioso.

| << |  <  |  >  | >> |

Pagina 312

Gli esseri viventi non sono robot passivi che obbediscono agli stimoli ambientali attraverso strategie adattative cangianti. Gli organismi modificano anche l'ambiente in cui vivono, il quale a sua volta retroagisce su di loro con nuove pressioni selettive. Θ un processo ricorsivo. Questa idea di "costruzione di nicchia" vale a maggior ragione per specie socialmente complesse e dotate di evoluzione culturale, come la nostra. Dal Neolitico in poi, noi trasformiamo gli ecosistemi in cui siamo immersi e ciò ha prodotto cambiamenti evolutivi significativi. Dodici millenni sono abbastanza per osservare modificazioni genetiche adattative nelle popolazioni umane, a causa dei cambiamenti di clima, di dieta e di esposizione ai patogeni. L'esempio classico è quello delle mutazioni per l'enzima della lattasi, che rende digeribili il latte e i prodotti caseari anche in età adulta in alcune popolazioni, ma l'elenco include molti altri caratteri (dalla pelle alla corporatura, dall'emoglobina alla tolleranza dell'alcol) che arrecano vantaggi in specifici ambienti. Un cambiamento culturale è diventato parte della nostra nicchia ecologica, la quale ci ha modificato anche biologicamente. Qui cultura e biologia interagiscono e coevolvono, creando ponti – ha notato l'etologo Kevin Laland – fra genetica e scienze umane. La selezione naturale ha continuato ad agire sulla fisiologia di Homo sapiens. Numerose ricerche confermano che vi è stata un'evoluzione genetica e fenotipica, anche accelerata, negli ultimi cinquantamila anni.

Allargando ulteriormente lo sguardo, noi sappiamo che oggi l'evoluzione culturale e tecnologica umana (attraverso, per esempio, le biotecnologie) è in grado di retroagire sull'evoluzione biologica. La tecnica del DNA espanso da cui siamo partiti potrebbe esserne un'applicazione imminente. Stiamo cambiando l'identità biologica di altre specie e della nostra. A sua volta l'evoluzione culturale umana è figlia di un processo evolutivo specifico, realizzatosi fra ottanta e settantamila anni fa in Africa, che ha portato alla comparsa dei primi Homo sapiens cognitivamente moderni. Siamo culturali per natura e siamo sempre più "naturali" per via culturale e tecnologica. Insomma, la dicotomia natura/cultura non è soltanto sbiadita o indebolita: è diventata metodologicamente inservibile anche in senso evoluzionistico stretto.

Alla luce di questi sviluppi, che dire della genetica del comportamento umano, campo di battaglia di molte polemiche degli ultimi decenni? Oggi sappiamo che individuare le basi biologiche di un comportamento significa trovare vincoli e condizionamenti antichi, non certo destini e necessità scolpiti sulla pietra. Nella maggior parte dei casi è difficile persino individuare coefficienti di ereditabilità precisi. Siamo una trama di relazioni fra predisposizioni naturali e apprendimenti, fra storia evolutiva e plasticità di sviluppo. La "natura umana", se intesa come un'essenza definita una volta per tutte, è l'ultima delle superstizioni, ha scritto il biologo Michael Ghiselin (1997). Eppure, è sufficiente spostare lo sguardo sul dibattito pubblico per notare quanto la dicotomia sia ancora presente, e il suo successo strisciante.

L'invisibile DNA continua a essere sinonimo di fatalità e destino. Nei casi migliori leggiamo resoconti nei quali una certa attitudine umana viene attribuita per una data percentuale ai geni e per un'altra all'ambiente, come se si potesse quantificare il ruolo dei due agenti distinti. Così però si presuppone una forma esteriore di interazionismo, che non coglie le strette interdipendenze fra fattori interni ed esterni che abbiamo brevemente elencato sopra. Sul fronte evoluzionistico, la cultura viene talvolta evocata come un'ipotesi ad hoc per far quadrare i conti. Se i condizionamenti biologici profondi non sono più attivi, o proprio non si vedono, è perché la melassa superficiale di ciò che è acquisito (un certo tipo di religione, condizioni sociali particolari, il grado di alfabetizzazione, esperienze infantili e così via) avrebbe modificato il modo in cui le tendenze innate si esprimono nel comportamento specifico. Da qui verrebbero le differenze di personalità, le idiosincrasie dei singoli ecc. Così ragionando, tuttavia, la dicotomia è rifiutata in principio, ma riapplicata in pratica.

Sul fronte "culturalista", vediamo invece il consolidarsi di una situazione paradossale in cui la natura viene sempre più spesso intesa come un'autorità morale, come un luogo fantasmatico di armonia, di antichi equilibri ora infranti, di integrità "biologica" contrapposta all'invadenza tecnologica. Per alcuni la natura come norma morale diventa un nostalgico alibi della specie culturale per eccellenza. Legge morale e comportamenti "secondo natura" tornano a sfiorarsi. In un tripudio di "empatia" e "bontà per natura", nell'evoluzione cerchiamo conferme di scelte che riteniamo morali. Questi atteggiamenti mostrano quanto sia ancora ardente, sotto la cenere, la brace della dicotomia nature vs nurture, una contrapposizione che evidentemente sentiamo come intuitiva e accomodante.

Nella realtà, risorse innate e contesti interagiscono costantemente. Θ ormai accertato che veniamo al mondo con un repertorio innato, ricco e non generico, figlio della nostra filogenesi di ominidi del genere Homo. Il tema scientifico del futuro è capire in che modo queste strutture della mente interagiscano con i fattori di contesto per esprimersi. Non basta insomma giustapporre nature e nurture, né asserire astrattamente che le due sono in qualche modo legate: dobbiamo costruire una teoria dell'interazione fra nature e nurture (Pievani, 2.014).

Come piccola proposta, potremmo sostituire il vetusto termine "istinto" con quello di "precursore naturale". Le competenze, le preferenze, le predisposizioni che hanno un'origine evolutiva sono vincoli che il passato ci restituisce. Come tali, influenzano i nostri modi di ragionare e di agire. Si pensi alle intuizioni della psicologia ingenua e della fisica ingenua con le quali siamo equipaggiati fin dalla nascita, senza bisogno di apprendimenti specifici iniziali: spazio, tempo, rapporti di causa-effetto, aritmetica. Non possiamo imparare indefinitamente qualsiasi cosa: in alcuni casi l'apprendimento è più facile e spontaneo, in altri meno. I precursori naturali sono innati, universali, evoluti, ma non ci portano al determinismo. Possono infatti essere cooptati dalla selezione naturale al mutare delle circostanze e hanno oggi una bassa cogenza nello sviluppo, il che fa sì che possano essere controbilanciati dall'educazione e dai condizionamenti ambientali.

Come tali, i precursori naturali indicano ciò che è possibile (o, quando sono più forti, ciò che è più probabile) e non ciò che è necessario. Per esempio, una serie di attitudini ben radicate nella mente umana (come il dualismo istintivo fra animato e inanimato, la propensione verso spiegazioni teleologiche) costituisce il ricco repertorio di competenze con cui nasce ogni essere umano ed è il risultato del soddisfacimento di funzioni adattative primarie, in fasi precedenti della filogenesi. Da quando tali adattamenti si sono fissati, le nicchie ecologiche sono cambiate e con esse le pressioni selettive, l'evoluzione bio-culturale ha fatto il suo corso, sono intervenute cooptazioni funzionali di strutture già esistenti. Dunque l'iper-attribuzione di relazioni di causa-effetto (come nelle superstizioni), l'iper-attribuzione di intenzionalità e le credenze religiose sono sotto-prodotti di precursori naturali evolutisi in passato (Girotto, Pievani, Vallortigara, 2014). In questo caso il superamento della dicotomia nature vs nurture non è un auspicio, ma una necessità operativa per comprendere le interazioni fra eredità filogenetica ed esperienze individuali.

| << |  <  |  >  | >> |

Pagina 321

9.7
L'impatto sulla teoria neodarwiniana:
un approccio lakatosiano



In termini informazionali, secondo il filosofo della biologia Paul E. Griffiths potremmo ridefinire la questione centrale in questo modo: la specificità informazionale del genoma, cioè la sua capacità di specificare causalmente la sequenza lineare dei prodotti genici, non è più localizzata esclusivamente in sequenze codificanti di DNA, ma è distribuita fra attori molteplici, che includono anche sequenze regolative e segnali ambientali, più gli effetti delle loro combinazioni (Griffiths, Stotz, 2013). Ebbene, se cambia l'assetto regolativo del sistema che immette diversità nelle popolazioni biologiche a ogni generazione, un'ultima questione, di tipo più teorico, emerge sullo sfondo e riguarda la sempre fibrillante discussione attorno all'eredità di Charles Darwin. Gli aggiornamenti fin qui discussi hanno certamente implicazioni radicali. Cambiano le scienze della vita e ci obbligano ad aggiornare anche la biologia evoluzionistica. Quali sono dunque gli effetti sulla teoria dell'evoluzione?

Darwin non conosceva l'esistenza di geni e cromosomi. Il suo impianto esplicativo si basava sull'osservazione dell'insorgenza di variazione individuale ereditabile a ogni generazione, benché non ne conoscesse le cause e avesse anzi al riguardo formulato ipotesi poi rivelatesi errate. Ciò che contava per il naturalista inglese era che questa variazione individuale ereditabile, in un contesto di scarsità costante di risorse, producesse una sopravvivenza differenziale all'interno di ogni popolazione biologica: alcuni individui portatori di mutazioni vantaggiose (per il reperimento delle risorse, per la protezione dai predatori, per la salute individuale in termini di resistenza a parassiti e malattie, per l'accesso alla riproduzione) avevano maggiori probabilità di raggiungere l'età riproduttiva, quindi di avere discendenti e di trasmettere (e con il tempo diffondere) la loro variante. Questo era il nocciolo della spiegazione darwiniana, da associare al secondo pilastro della sua rivoluzione, cioè la discendenza comune di tutti gli esseri viventi da antenati vissuti precedentemente.

La selezione naturale è quindi un processo demografico e statisticamente rilevabile di sopravvivenza differenziale, che porta una certa variante a diffondersi con maggiore o minore frequenza in una popolazione. Il fulcro del cambiamento è sempre l'individuo biologico singolo, in quanto portatore della materia prima dell'evoluzione, la variazione. La teoria ha inoltre un impianto fortemente ecologico, perché le pressioni selettive e i conseguenti adattamenti dipendono dalle circostanze ambientali contingenti, dalle relazioni fra gli organismi tra di loro, fra le popolazioni e le specie tra di loro e fra gli esseri viventi e le condizioni fisiche circostanti. L'intuizione darwiniana si basa sull'incrocio di due catene di cause indipendenti: da un lato, la variazione individuale continuamente emergente; dall'altro, le condizioni ambientali esterne, mutevoli e imprevedibili, che determinano la sopravvivenza differenziale. Posta in questi termini formalmente rigorosi da naturalisti novecenteschi come Ernst Mayr, la teoria darwiniana appare qualcosa di completamente diverso dalle caricature sulla "sopravvivenza del più adatto" o, ancor peggio, "sopravvivenza del più forte".

Rimaneva però un problema di connessione fra la microevoluzione interna alle popolazioni e la macroevoluzione delle specie nelle loro nicchie ecologiche, visto che le leggi dell'ereditarietà di Gregor Mendel, pur annunciate nel 1866, verranno realmente comprese e valorizzate soltanto a partire dall'anno 1900. Bisogna attendere gli anni Venti del Novecento per una sintesi fra mendelismo e darwinismo. Grazie alla perizia statistica delle analisi quantitative di Ronald A. Fisher, di John Burdon Sanderson Haldane e di Sewall Wright si capì che poteva essere delineata un'ambiziosa teoria genetica della selezione naturale, capace di unire mendelismo e darwinismo in un'inedita alleanza o "sintesi moderna", come verrà definita dal biologo teorico Julian Huxley, nipote di Thomas Huxley, nel 1941. In opere di fondazione paradigmatica come The Genetical Theory of Natural Selection di Fisher del 1930 e Genetics and the Origin of Species di Theodosius Dobzhansky del 1937, l'evoluzione per selezione naturale veniva riletta come una dinamica di diffusione differenziale di varianti genetiche all'interno delle popolazioni biologiche. Era una riformulazione del nocciolo darwiniano variazione-selezione, metodologicamente all'altezza per confrontarsi di lì a poco con le scoperte relative alla struttura molecolare del DNA e alla codifica dell'informazione genetica.

| << |  <  |  >  | >> |

Pagina 324

Che tipo di "neodarwinismo" è dunque quello attuale, alla luce della systems biology e della genetica del XXI secolo? Abbiamo bisogno di una sintesi evoluzionistica totalmente nuova o basterà qualche aggiustamento più superficiale? La "sintesi moderna" novecentesca sembra arrancare rispetto a diversi rigogliosi filoni di ricerca:

a) l'EVO-DEVO, nella formulazione precorritrice di Stephen J. Gould proposta nel 1977 (Gould, 1977) e poi esplosa come campo di studi nei primi anni del nuovo secolo;

b) l'epigenetica, la moltiplicazione delle sorgenti di variazione e di ereditarietà e l'importanza del trasferimento genico orizzontale;

c) la plasticità fenotipica e di sviluppo;

d) la costruzione della nicchia;

e) il ruolo dei vincoli strutturali;

f) il concetto di evolvibilità (Kirschner, Gerhart, 1005).

Benché per ciascuno di questi filoni occorra valutare il reale impatto teorico e la portata sperimentale (cioè le frequenze relative dei pattern derivati), la capacità di assorbimento indolore sembra in ogni caso declinare. La "sintesi moderna" sembra poggiare su una concezione del genoma del tutto superata.

Alla luce di questi dati, il problema della teoria neodarwiniana classica potrebbe non essere tanto quello della sua incompletezza, quanto quello della «adeguatezza della sua struttura teorica complessiva», come sottolineò Stephen J. Gould (2002). Se così è, uno strumento promettente per comprendere l'evoluzione in atto nella struttura della teoria dell'evoluzione è la "metodologia dei programmi di ricerca scientifici" di Imre Lakatos (1978). Nello specifico, il passaggio fra la "sintesi moderna" e quella che ormai numerosi autori definiscono "Extended Synthesis" (Pigliucci, Mόller, 2010) si configura come uno slittamento fra un programma di ricerca che ha iniziato a essere regressivo e una nuova versione del programma di ricerca con caratteristiche fortemente progressive, date dal suo impianto esplicativo di tipo pluralistico (Pievani,2012).

| << |  <  |  >  | >> |

Pagina 328

La struttura della "sintesi moderna" novecentesca, intesa come programma di ricerca, potrebbe allora essere così descritta. Il nucleo del programma di ricerca è un darwinismo aggiornato come teoria genetica della selezione naturale. La cintura protettiva di assunzioni ausiliarie verte attorno a tre postulati metodologici forti:

1. gradualità nei cambiamenti;

2. estensione dei meccanismi di cambiamento della microevoluzione, fino a spiegare tutti gli eventi al di sopra del livello delle specie;

3. ricerca delle spiegazioni adattative di ogni fenomeno biologico.

L'euristica positiva e negativa che ne deriva è dettata dall'idea programmatica di una logica strettamente darwiniana di tipo universale, che per alcuni decenni ha garantito la predizione di molti "fatti nuovi", ma che da un paio di decenni almeno sembra piuttosto accumulare anomalie in questa versione rigida.

La struttura della teoria dell'evoluzione dei prossimi anni si potrebbe configurare allora come una riforma, profonda e sostanziale, di questo programma di ricerca, con il quale tuttavia rimane compatibile (Sterelny, Griffiths, 1999). Quindi vi è al contempo una forte novità concettuale (cambia la struttura teorica complessiva in seguito a scoperte che non erano implicite nel programma precedente) e una compatibilità con il programma precedente. Dunque non si tratta né di un maquillage superficiale su punti marginali di una struttura che resta la stessa, né di una rottura radicale con sostituzione dell'intera struttura con un'altra diversa, bensì di una trasformazione continuativa dell'architettura generale del programma di ricerca precedente.

Le linee della "riforma" possono essere così tracciate: estensione del nucleo centrale per aggiornamento sperimentale e teorico, con recupero al suo interno dell'originario pluralismo esplicativo darwiniano (in termini, per esempio, di interazioni tra fattori funzionali e fattori strutturali"); riforma pressoché completa della cintura protettiva, da postulati metodologici unifattoriali a spiegazioni multifattoriali (pluralismo). In particolare:

1. il nucleo della "sintesi estesa" è oggi un "darwinismo esteso": comprende cioè la descrizione del fatto dell'evoluzione e la sua spiegazione attraverso i quattro motori del cambiamento evolutivo: sorgenti di variazione molteplici, genetiche ed epigenetiche (si diversifica il materiale su cui agisce la selezione naturale, come abbiamo visto); selezione naturale, sessuale e di parentela; deriva genetica, meccanismi quasi-neutrali ed effetti di struttura non selettivi (il dominio non funzionale del nucleo); fattori su larga scala, esterni, che producono pattern come estinzioni di massa, turnover di specie, radiazioni adattative, simbiogenesi;

2. la cintura protettiva della "sintesi estesa" diventa essa stessa pluralista, con una robusta diversificazione plurale dei pattern relativi ai ritmi, alle unità e alle modalità del cambiamento evolutivo. In particolare:

a) pluralità di ritmi di evoluzione: tendenze graduali, stabilità, punteggiature, modalità plurali di speciazione e loro frequenze relative;

b) pluralità di unità di evoluzione e relazioni bidirezionali tra organismi e nicchie: selezione di gruppo, selezione multilivello, costruzione della nicchia, unità di sviluppo organismo-nicchia (Okasha, 2006);

c) pluralità di dinamiche adattative e di interazioni fra strutture e funzioni: plasticità fenotipica, EVO-DEVO, effetti di autorganizzazione.

3. L'euristica positiva e negativa è guidata dall'idea programmatica di un pluralismo definitorio ed esplicativo (pluralità di definizioni integrate, come nel caso dell'oggetto "specie", pluralità di pattern, frequenze relative e domini di pertinenza rispettivi), che mostra oggi di essere in grado di predire una grande quantità di "fatti nuovi" provenienti da differenti discipline.

Questo nuovo programma di ricerca scientifico neodarwiniano dovrebbe essere in grado, in futuro, di abbracciare l'intera gamma, estremamente eterogenea, dei fenomeni evoluzionistici e di stare al passo con la nuova immagine del genoma come sistema integrato e reticolare, che abbiamo precedentemente delineato a partire dagli sviluppi più recenti della ricerca. Naturalmente ancora non sappiamo quale fisionomia assumerà la teoria evoluzionistica e la sfida è aperta, ma non avrebbe alcun senso rifiutarla per difendere un'ortodossia darwiniana che non esiste. I programmi di ricerca scientifici sono essi stessi sistemi in evoluzione. Forse un'altra dicotomia è al tramonto: quella fra antidarwiniani velleitari senza un programma di ricerca in mano, da una parte, e ultradarwiniani arroccati attorno a un programma di ricerca invecchiato, dall'altra. Per navigare negli intrecci fra genoma, sviluppo e ambiente, le scorciatoie riduzioniste sono impraticabili. Nell'era postgenomica, la filosofia della genetica richiede una profonda revisione concettuale.

| << |  <  |