Autore Peter M. Hoffmann
Titolo Gli ingranaggi di Dio
SottotitoloDal caos molecolare alla vita
EdizioneBollati Boringhieri, Torino, 2014, Nuovi Saggi 25 , pag. 320, ill., cop.ril.sov., dim. 14x21x2,8 cm , Isbn 978-88-339-2505-9
OriginaleLife's Ratchet. How Molecular Machines Extract Order from Chaos [2012]
TraduttoreAndrea Migliori
LettoreCorrado Leonardo, 2014
Classe biologia , fisica , scienze naturali , storia della scienza , filosofia












 

| << |  <  |  >  | >> |

Indice


  9     Introduzione Che cos'è la vita?

 18  1. La forza vitale

        Il segreto, 19
        L'atomismo, 22
        Medicina e magia, 27
        Il meccanicismo, 29
        L'homme machine, 34
        Il calore animale, 38
        Il fallimento del meccanicismo, 44
        Un Frankenstein irritabile, 48
        La conservazione della forza: ovvero, in che modo
        il vitalismo fu sconfitto da una zampa di rana, 51
        Darwin e Mendel: dal caso al fine, 57

 62  2. Il caso e la necessità

        Casualità, 63
        Breve storia del gioco d'azzardo, 64
        La scienza dell'ignoranza, 71
        Il caso e la vita: tre punti di vista, 75
        La variazione e la fisica atomica, 80
        Che cos'è la vita?, 84
        Le regole del gioco, 87

 89  3. L'entropia di un rapinatore notturno

        Soldi «on the rocks», 91
        Il mistero dell'energia mancante, 95
        Non tutte le energie sono create uguali, 97
        Lo strano caso dell'informazione mancante, 99
        Il secondo principio, 102
        L'energia libera, 105
        La tempesta molecolare, 109
        Sistemi aperti, I11

114  4. Su scala piccolissima

        Nano, 116
        Toccare gli atomi, 120
        (Gentil)uomini di Oxford, 122
        L'incredibile stranezza delle piccole cose, 124
        Gli effetti quantistici, 126
        Il rumore termico, 127
        Assembla te stesso!, 127
        Cooperiamo!, 132
        La forza entropica, 135
        Odi et amo, 139
        Origami molecolare, 142
        L'enigma di Schrödinger, 146
        L'insorgenza di scale temporali estese:
        come obbligare le molecole d'acqua a cooperare, 148
        Interruttori molecolari, 152
        Tutte le energie sono create uguali,
        almeno alle nanoscale, 154

157  5. Il diavolo di Maxwell e il cricchetto di Feynman

        Il diavolo di Maxwell, 158
        La botola di Smoluchowski, 161
        Il diavolo e il pulsante di azzeramento, 164
        Reversibilità, 166
        Perpetuum mobile, 170
        Il cricchetto di Feynman, 172
        Il cricchetto non funziona, 174

177  6. Il mistero della vita

        Tu non violerai il Secondo Principio, 178
        Un Hummer molecolare, 179
        Basta stringersi un po', 180
        Tutto sotto controllo, 186
        A zonzo nel paesaggio energetico, 190
        Sisifo alle nanoscale, 191
        Cosa mangiano le macchine molecolari?, 195
        Svita e avvita, 196
        Quante probabilità abbiamo?, 199
        La controversia, 204

207  7. Twist and Route

        Motore, azione! La chinesina, la miosina e la dineina, 208
        La stazione di ricarica: il sistema di traslazione
        dell'energia, 235
        L'ATP sintasi e l'incredibile bastone rotante, 238
        Fare tanto con poco, 244
        Un po' di twist: le macchine a DNA, 244
        Cibo da passeggio, 255
        L'instradamento: i canali attivi, 258

260  8. L'orologio e il ribosoma

        L'evoluzione, 264
        Cricchetti, 275
        Non c'è altro modo..., 276

279  9. Dalla materia alla vita

        La regolazione, 281
        Effetti collaterali, 284
        Biologia dei sistemi e reti regolatrici, 286
        Il fisico e il biologo, 289
        Mucche e quark, 293

296     Epilogo La vita, l'universo e tutto quanto

301     Glossario
309     Fonti bibliografiche
373     Letture consigliate
317     Indice dei nomi


 

 

| << |  <  |  >  | >> |

Pagina 12

Che cos'è la vita? Gli scienziati cercano di rispondere alla domanda da quando esiste la scienza. Per Aristotele il corpo era composto di materia, ma per infondergli la vita era necessaria un'anima. È una concezione diffusa ancora oggi. Libri come Il segreto di Rhonda Byrne ci dicono che possediamo grandi riserve di «energia vitale» ancora intatte che possono aiutarci a diventare ricchi e felici. Nessuno, però, è mai riuscito a osservare una particolare forza vitale. Se si considera il bilancio dell'energia assunta (cibo) e di quella consumata (moto, calore) di qualsiasi organismo vivente, non c'è traccia di energia mancante o di scorte di energia mai sfruttate.

All'estremo opposto abbiamo l'idea che le creature viventi siano macchine incredibilmente complesse. Il filosofo francese Cartesio riteneva che gli animali (ma non gli uomini) fossero macchine prive di anima e non provassero dolore. Per esplorare i meccanismi interni degli animali Cartesio sosteneva l'utilità della vivisezione, una pratica che oggi giudichiamo incivile.

All'inizio del XVII secolo, l'invenzione del microscopio permise agli scienziati di cercare la vita su scale sempre più piccole. Il primo a descrivere le cellule biologiche fu Robert Hooke nell'opera Micrographia del 1665 (fig. 0.1). Per identificare nei cromosomi i vettori dell'ereditarietà si dovette attendere il 1902. La struttura del DNA fu decifrata nel 1953 e la prima struttura proteica su scala atomica fu svelata nel 1959. Ma nonostante gli scienziati scomponessero la vita in elementi sempre più piccoli, il suo segreto continuava a sfuggire.

Tutto questo significa che l'approccio riduzionista è destinato a fallire? Sono in tanti a crederlo, e tra questi molti eminenti biologi. A mio avviso, però, si sbagliano. Certo, il semplice riduzionismo non basta: molti fenomeni importanti e inattesi emergono solo dall'interazione complessa di più parti. Per spiegare questi fenomeni emergenti non ci si può limitare ad analizzare le loro singole componenti. L' olismo (l'idea che il tutto sia maggiore della somma delle sue parti) è un elemento insostituibile di qualsiasi spiegazione della vita.

Ciononostante, lo studio di pezzi sempre più piccoli di organismi viventi secondo l'approccio riduzionista è costellato da una serie ininterrotta di successi che potrebbero culminare in un premio di valore inestimabile, la soluzione di uno dei massimi misteri della vita: da dove nasce il «movimento per un fine» degli esseri viventi? Questo interrogativo, formulato da Aristotele più di duemila anni fa, costituisce ancora uno dei misteri fondamentali della vita. Aristotele attribuiva il movimento a un fine. Oggi, invece, dopo essere riusciti a penetrare nel regno delle molecole, ciò che troviamo non è un fine ma un movimento casuale. Quello stesso interrogativo si è così trasformato in un'altra grande domanda: come fanno le molecole a creare l'azione «secondo un fine» che caratterizza le cellule e i batteri? Come si passa da semplici aggregati di atomi ai movimenti complessi e organizzati che hanno luogo nelle cellule?

In questo libro troveremo una risposta a queste domande, che assillano la scienza e la filosofia da migliaia di anni. Che cosa ci ha impedito per così tanto tempo di risolvere il mistero? Non avevamo gli strumenti e i concetti giusti per studiare la vita su scala abbastanza piccola. E che cosa intendiamo per «abbastanza piccola»? Il segreto dei processi vitali si cela a una scala di un nanometro: un miliardesimo di metro.

Grazie ai progressi della nanotecnologia possiamo vedere all'opera i componenti elementari della vita: molecole in grado di muoversi autonomamente e di compiere attività specifiche come minuscoli robot. Le nostre cellule sono città piene di api operaie molecolari che, come per magia, si assemblano da sole, vanno dove sono richieste, fanno ciò che devono fare e infine vengono riciclate. Com'è possibile che semplici molecole si muovano secondo modalità ben precise per assolvere compiti ben precisi? Questi stupefacenti robot molecolari sono forse impregnati di una forza vitale speciale? Sono controllati da una coscienza superiore? La cosa potrà stupirvi, ma ciò che governa la vita alle scale più piccole non è una forza misteriosa e soprannaturale, pur avendo proprietà sorprendenti. La forza che governa la vita è il caos.

Come neofita della biologia molecolare, e potendo osservare le cose dal punto di vista peculiare di un fisico, mi sento particolarmente indicato a raccontare la storia delle nuove scoperte sulla vita al livello delle nanoscale. Non ho lavorato in questo campo così a lungo da poter dare qualcosa per scontato: tutto è nuovo ed entusiasmante e io desidero condividere questo entusiasmo con i miei lettori. Se posso raccontare questa storia, tuttavia, è grazie a chi mi ha preceduto: i biologi che hanno ricostruito con precisione meticolosa i processi chimici dell'attività cellulare, i biochimici che hanno identificato la natura chimica delle macchine molecolari cellulari e, più recentemente, i fisici che stanno cercando di identificare i princìpi generali alla base di tutto il trambusto che agita le nostre cellule. L'obiettivo principale di questo libro è quello di seguire le scoperte degli scienziati per scoprire che cosa trasforma una molecola in una macchina, e molte macchine molecolari in una cellula vivente.

Se cerchiamo di comprendere la vita seguendo l'approccio riduzionista, il punto di partenza delle nostre ricerche non può che trovarsi a livello molecolare. La vita, fondamentalmente, è una danza complessa di molecole che può essere capita nel contesto della fisica. Nel 1945, il premio Nobel per la fisica Erwin Schrödinger predisse che l'informazione genetica, lo schema a partire dal quale si costruisce un essere umano, doveva essere codificata nelle struttura delle molecole. Nel libro Che cos'è la vita? Schrödinger ipotizzò che il codice genetico fosse contenuto in «lettere» chimiche appartenenti a un cristallo aperiodico (oggi si preferisce chiamarlo «polimero»), e che le dimensioni di ogni lettera presente nel codice genetico fossero dell'ordine di pochi nanometri. Tredici anni dopo, le previsioni di natura fisica formulate da Schrödinger diedero al giovane Francis Crick l'ispirazione per decifrare il mistero del DNA. Crick e il suo collaboratore James Watson scoprirono che Schrödinger aveva visto giusto. Tutto quello che abbiamo imparato sulla vita a livello molecolare si è rivelato conforme a princìpi fisici noti. Questo libro segue la strada aperta da Schrödinger per osservare la vita dal punto di vista di un fisico.

Anche a livello molecolare, tuttavia, la vita rivela una complessità incredibile, senza la quale non potrebbe funzionare. Nel 1970 un altro premio Nobel, il biochimico francese Jacques Monod , giunse alla conclusione - esposta nel libro Il caso e la necessità - che i meccanismi complessi delle nostre cellule dovessero essere il frutto di una coincidenza cosmica incredibilmente fortunata: «L'universo non era impregnato di vita, né la biosfera portava l'uomo al suo interno. Il nostro numero è uscito al Casinò di Monte Carlo. C'è da stupirsi se ci sentiamo strani e lievemente irreali, proprio come chi ha appena vinto un milione alla roulette?». Molti scienziati hanno sposato la posizione di Monod a favore del caso rispetto alla necessità. Il loro timore è che la scienza venga travolta dal vitalismo e dalla religione. La necessità implica che l'esistenza della vita si spieghi con una ragione esterna. Se esiste realmente, deve esistere anche una forza motrice esterna alla fisica o alla biologia.

Altri scienziati la pensavano diversamente. Nel 1917, D'Arcy Wentworth Thompson, un biologo e matematico britannico, pubblicò un libro straordinario, Crescita e forma, in cui mostrava come la forma di piante e animali presentasse una serie di analogie con il mondo fisico non vivente. Thompson sosteneva che la forma del nostro corpo non è dovuta al caso ma è l'effetto necessario di forze fisiche e vincoli geometrici. Aveva trovato il modo per privilegiare la necessità rispetto al caso senza ricorrere alla religione o al vitalismo: secondo lui, la struttura di ogni organismo vivente era conseguenza necessaria della matematica e della fisica.

Man mano che ci addentriamo nel mondo microscopico delle molecole della vita, scopriamo che il caos, la casualità, il caso e il rumore sono nostri alleati. Senza le vibrazioni che scuotono gli atomi, le molecole della vita sarebbero come congelate, incapaci di muoversi. Se ci fosse solo il caos, d'altro canto, tutte quelle vibrazioni convulse non avrebbero un obiettivo. Affinché la tempesta molecolare si trasformi in una forza utile alla vita è necessario imbrigliarla e domarla servendosi delle leggi fisiche e di strutture complesse: in altre parole, servono macchine molecolari.

L'interazione feconda tra caso e necessità spiega anche in che modo l'evoluzione abbia «progettato» queste macchine raccoglitrici di caos. Il caso e la necessità possono addirittura spiegare il funzionamento della nostra mente e l'origine delle nostre intuizioni. Questo libro vuole rendere giustizia al caso, una forza di cui si è detto tutto il male possibile, perché senza il caso non avremmo l'universo, la vita e gli esseri umani, e non avremmo il pensiero.

Da dove viene il caos? Perché gli atomi si muovono senza sosta in maniera aleatoria? Il moto casuale degli atomi del nostro corpo è l'ultima traccia della creazione dell'universo. Il Big Bang ha creato un universo pieno di energia e lo ha riempito di stelle come il nostro Sole. Attraverso quest'ultimo, l'energia del Big Bang fa vibrare gli atomi delle nostre cellule, rendendo possibile la vita sulla Terra.

Che vi piaccia o no (e spero che una volta finito di leggere il libro l'idea vi abbia conquistato), il caos è la forza vitale. Attraverso l'effetto moderatore della legge fisica, che vi aggiunge un pizzico di necessità, il caso diventa la forza creatrice che muove e scuote il nostro universo. Tutte le cose belle che vediamo intorno a noi, dalle galassie ai girasoli, sono il risultato della collaborazione creativa tra il caos e la necessità. Il potenziale della vita era già scritto nel libro del nostro universo fin dal primo incontro tra le leggi della fisica e i movimenti violenti delle particelle elementari. Sono convinto che tutto ciò renda la storia della vita ancora più bella e le conferisca addirittura un aspetto spirituale.

Capire la vita non è facile. La sua natura fondamentale è uno degli interrogativi più inesplicabili della scienza. La letteratura scientifica trabocca di articoli che cercano di spiegare vari aspetti della vita, ma in molti casi si tratta di congetture, e molte di queste sono controverse. È raro che il grande pubblico sia informato sui progressi entusiasmanti compiuti dalla scienza, perché la loro comprensione richiede conoscenze approfondite di fisica, biologia e chimica. Come se non bastasse, la letteratura scientifica è scritta con un linguaggio tale che persino gli scienziati hanno difficoltà a capirsi a vicenda. In questo libro spazzerò via la nebbia dei geroglifici scientifici e farò in modo che le ultime teorie sulla vita diventino accessibili al lettore interessato. Non possiedo tutte le risposte, e alcune delle cose che ho scritto si riveleranno in futuro sbagliate. La scienza, però, non è un libro vecchio e polveroso pieno di fatti scontati. È una storia di scoperte, viva e pulsante, una vera avventura della mente umana.

Che l'avventura abbia inizio.

| << |  <  |  >  | >> |

Pagina 66

La persona che per prima ebbe l'idea di sfruttare il gioco d'azzardo in modo così ingegnoso nacque infatti nel 1501, a Milano, figlio non voluto di una coppia non sposata. Sua madre, Chiara, aveva già molti figli e non ne desiderava altri: l'infuso d'erbe che aveva bevuto per abortire non funzionò, e alla donna toccò la gioia di dare alla luce un bambino così macilento da far pensare che non sarebbe sopravvissuto. Purtroppo per sua madre, il bambino guarì grazie a un bagno nel vino rosso. Ebbe così inizio la vita poco probabile della prima persona che formulò una teoria della probabilità.

Appena il nostro eroe fu abbastanza grande, suo padre Fazio, avvocato, se ne servì come facchino per i suoi libri e come leggio mobile: a soli cinque anni, il bambino veniva fatto avanzare per strada a suon di calci, schiacciato da pile di tomi pesantissimi. A otto anni si ammalò gravemente, e il padre, pentendosi, lo fece battezzare con il nome di Gerolamo Cardano. Cardano fu il tipico genio del Rinascimento: medico, matematico, giocatore d'azzardo, ingegnere meccanico e fondatore della teoria delle probabilità. Crescendo, cominciò ad accompagnare il padre dai numerosi clienti, ai quali l'avvocato forniva consulenze di geometria e di diritto. Quando compì tredici anni, Fazio lo presentò al grande Leonardo da Vinci. Gerolamo aveva una fame insaziabile di conoscenza, aveva imparato il latino e il greco e non c'era nulla che non gli interessasse, dalla stregoneria agli oroscopi, alla costruzione delle ragnatele, passando per la circolazione sanguigna. Sembrava destinato a diventare uno studioso di grande fama, ma suo padre, nonostante Gerolamo fosse così promettente, rifiutò di pagargli gli studi in un'altra città.

Un giorno, in un accesso di rabbia, Fazio colpì la moglie, facendole sbattere la testa su un tavolo. L'uomo si pentì immediatamente del gesto violento, ma Chiara, che nel frattempo si era affezionata al figlio che un tempo non aveva voluto, sfruttò più che poté l'incidente a proprio vantaggio. Svenendo ripetutamente e invocando l'aiuto della sorella, che aveva assistito alla scena, fece promettere a Fazio che avrebbe permesso a Gerolamo di frequentare l'università. A malincuore, Fazio cedette al ricatto, ma suggerì che il ragazzo studiasse giurisprudenza, un campo di studi remunerativo. Gerolamo avrebbe avuto uno stipendio, e suo padre, come tanti altri padri, non vedeva l'ora di fornire un'istruzione al figlio senza dover pagare la retta. A Gerolamo, però, gli studi giuridici non interessavano affatto; voleva diventare medico, ma il padre rifiutò di pagare per un corso di studi così costoso: Gerolamo avrebbe dovuto procurarsi il denaro in qualche altro modo.

Lui lo trovò nel gioco d'azzardo. Gerolamo aveva una predilezione per il gioco dei dadi, perché possedeva un talento naturale per calcolarne le probabilità. Non barava (non conveniva, in un'epoca in cui spesso i bari finivano a penzolare da una trave), ma sapeva come scommettere. In breve tempo accumulò una quantità di denaro sufficiente a studiare medicina alla rinomata università di Padova. Nonostante qualche difficoltà iniziale, dovuta anche a una dissertazione sull'incompetenza dei suoi colleghi, Cardano divenne un medico di successo, finendo per essere nominato Rettore della facoltà di medicina della stessa università. Scrisse molti libri di medicina e di matematica, soprattutto di algebra, e non dimenticò mai il suo passato di scommettitore: il desiderio di condividere le proprie esperienze lo portò a formulare la prima teoria del gioco d'azzardo nel Liber de ludo aleae (Il libro del gioco d'azzardo).

Pur essendo stato pubblicato solo un secolo dopo essere stato scritto, il libro di Cardano segnò un punto di svolta, poiché introduceva l'idea fondamentale di calcolo delle probabilità: se volete sapere qual è la probabilità che accada un evento particolare tra tutti gli eventi possibili, contate il numero di varianti dell'evento in questione e dividetelo per il numero di tutti gli eventi possibili. Il metodo proposto da Cardano assumeva che tutti gli eventi avessero la stessa probabilità di accadere. Ecco un esempio: qual è la probabilità che nel lancio di due dadi si ottenga una somma pari a 5? Nel lancio di due dadi esistono 6 x 6 = 36 risultati possibili: (1, 1), (1, 2), ... , (6, 5), (6, 6). In quanti modi si può ottenere una somma pari a 5? Contiamoli: (1, 4), (2, 3), (3, 2), (4, 1), cioè quattro modi possibili. Quindi la probabilità di ottenere un totale di 5 lanciando due volte un dado è pari a 4/36 = 1/9. Con qualche calcolo in più possiamo anche calcolare la probabilità di una scala reale. Scegliendo cinque carte a caso da un mazzo di 52 carte si possono ottenere 2 598 960 mani diverse. Di queste, solo 4 saranno scale reali (una per ogni seme). Dividendo 4 per 2 598 960 ottenete 1/649 740. Non avete neanche bisogno di giocare a poker per scoprirlo.

Cardano ha le carte in regola per essere il protagonista della nostra storia. Come medico, capiva il ruolo del caso nella vita delle persone. La sua esistenza fu un susseguirsi frenetico di eventi casuali. Fondò la teoria delle probabilità, inventò un metodo per scrivere messaggi segreti ed ebbe persino un legame con Detroit, la città in cui io abito: inventò infatti il giunto cardanico, usato ancora oggi nelle automobili (ma concepito inizialmente per un sistema di pompaggio dell'acqua). Purtroppo, il caso finì per avere la meglio su Cardano: in seguito a una serie di eventi sfortunati finì in prigione e terminò la propria esistenza in un ospizio.

| << |  <  |  >  | >> |

Pagina 102

Il secondo principio

Il secondo principio della termodinamica è una delle leggi fisiche più fondamentali, universali e fraintese (questo perché la gente non legge le frasi scritte in piccolo!). Fatemi riformulare il secondo principio in maniera più precisa: non esiste un processo il cui unico risultato è la trasformazione di energia ad alta entropia (distribuita a caso) in energia a bassa entropia (distribuita in maniera semplice o concentrata). Inoltre, ogni volta che trasformiamo un tipo di energia in un altro, ci ritroviamo sempre con un aumento complessivo dell'energia ad alta entropia. Nelle trasformazioni dell'energia, l'entropia complessiva cresce sempre.

Negli enunciati del secondo principio che avete appena letto ho scritto alcune parole in corsivo: unico e complessivo. Sono parole apparentemente innocue, ma sono estremamente importanti per capire il secondo principio e il suo legame con la vita. Ignorando quelle due parole, i creazionisti sono riusciti ad affermare che la vita e l'evoluzione violano il secondo principio della termodinamica. Niente affatto!

Vediamo cosa vogliono dire queste due parole, cominciando da unico. Il secondo principio non dice che un processo in cui l'energia ad alta entropia (distribuita) si trasforma in energia a bassa entropia (concentrata) è impossibile. Se lo fosse, stasera non potreste mangiare un bel gelato: un frigorifero, infatti, è una macchina che riduce localmente l'entropia (raffreddando le cose). Il raffreddamento del gelato, però, non è l' unico risultato della refrigerazione. Il frigorifero ingoia elettricità (una fonte di energia a bassa entropia) e la trasforma quasi integralmente in calore (energia ad alta entropia) che viene liberato nella cucina. Ecco perché non si può raffreddare la cucina tenendo aperta la porta del frigorifero.

Complessivamente, il frigorifero provoca un aumento notevole dell'entropia anche se, localmente, la riduce. Si può ridurre localmente l'entropia, ma per riuscirci ci vuole una gran quantità di lavoro e un consumo elevato di energia a bassa entropia (è come quando riordinate la vostra stanza - non è impossibile, ma finite per sudare e imprecare - o quando aumentate l'entropia intorno a voi bruciando l'energia a bassa entropia fornita dal cibo e la trasformate in rifiuti e calore ad alta entropia). Lo stesso vale per gli organismi viventi: la vita sfrutta una fonte di energia a bassa entropia (il cibo o la luce del Sole) e riduce l'entropia localmente (creando ordine attraverso la crescita), ma a un prezzo: la creazione di una gran quantità di «energia di scarto» ad alta entropia (calore e rifiuti chimici). La tesi creazionista per cui il secondo principio non è compatibile con la comparsa della vita o con l'evoluzione fa acqua da tutte le parti.

L'entropia e il secondo principio della termodinamica sono alcuni tra i concetti più importanti della fisica, e anche tra i più fraintesi. Il problema è dovuto in parte al fatto che esistono diverse definizioni di entropia e che nessuna di queste è di facile comprensione. Spesso ci si limita ad affermare che l'entropia è equivalente al disordine. Non è una descrizione adeguata, a meno che non sia ben chiaro che cosa si intende per disordine. Anche in questo caso i creazionisti hanno sfruttato la confusione, affermando che l'aumento dell'entropia è incompatibile con la vita. Il loro ragionamento è il seguente: dato che l'entropia è disordine e che la vita è ordine, il secondo principio dimostra che la vita non può essere comparsa spontaneamente.

Equiparare l'entropia al disordine può essere utile ma non corrisponde affatto a una definizione rigorosa. È un problema che gli scienziati incontrano spesso: trasponendo una definizione (per lo più matematica) nel linguaggio di tutti i giorni, i dettagli si perdono nella traduzione. L'entropia non è uguale al disordine al quale pensiamo ogni giorno (l'esempio della stanza ordinata e disordinata era solo un'analogia per spiegare il concetto di microstato). L'entropia, piuttosto, misura il grado di distribuzione dell'energia. Può accadere che un sistema apparentemente ordinato possieda un'energia più dispersa di quella di un sistema «disordinato». Anche se in apparenza più ordinato, un sistema del genere avrebbe un'entropia maggiore.

Per spiegare la differenza tra l'entropia e il concetto di disordine usato nella vita di tutti i giorni possiamo fare ricorso a un esempio incredibilmente semplice, quello di una collezione di sfere rigide (pensate a un insieme di biglie). Aggiungendo biglie in un contenitore, si raggiunge una densità critica (numero di biglie per unità di volume) in cui lo stato di massima entropia (quello che ci aspetteremmo come il più disordinato) è quello in cui tutte le biglie sono impilate le une sulle altre secondo uno schema ordinato. Com'è possibile? Si può riempire di biglie il recipiente in due modi radicalmente diversi: possiamo limitarci a lasciar cadere le biglie in maniera casuale, oppure possiamo impilarle secondo uno schema preciso. La prima scelta porta a una situazione nella quale le biglie si toccano, ma occupano posizioni casuali. In questo caso i fisici parlano di random stacking, «impilamento casuale». Quando le biglie sono impilate a caso, alcune di esse saranno completamente incastrate e non potranno muoversi. L'impilamento casuale riduce la libertà di movimento, restringendo la distribuzione di energia e riducendo l'entropia. Le biglie impilate con attenzione, invece, dispongono in media di uno spazio di manovra più grande, e quindi hanno una maggiore entropia. Quello delle biglie è un ottimo esempio di sistema semplice in cui un'entropia maggiore vuol dire più ordine. La semplice equivalenza tra entropia e disordine può essere fuorviante. Nelle cellule biologiche esistono molte strutture ordinate che si formano spontaneamente in corrispondenza di un aumento di entropia: tra queste ricordiamo le proteine, le strutture della membrana cellulare e le fibre. In tutti questi casi, l'entropia cresce esportando il disordine alle molecole d'acqua circostanti. Ne parleremo in dettaglio nel quarto capitolo.

Una volta di più, scopriamo che il secondo principio della termodinamica non preclude l'emergenza e la presenza costante di forme di vita. Si può ridurre localmente l'entropia a patto di aumentarla globalmente (è il caso del frigorifero); a volte, inoltre, un aumento dell'entropia (come nel caso delle biglie rigide) porta a un aumento dell'ordine. La vita sfrutta a proprio vantaggio queste due lacune (apparenti) del secondo principio.

| << |  <  |  >  | >> |

Pagina 116

La vita deve cominciare alle nanoscale. E lì che inizia a emergere una complessità che va oltre la semplicità dell'atomo, ed è lì che l'energia si trasforma rapidamente da una forma all'altra. È alle nanoscale che avviene l'incontro tra il caso e la necessità. Al di sotto delle nanoscale troviamo solo il caos; al di sopra, solo rigida necessità.


Nano

Come si fa a dire a un branco di sedicenni quanto è piccolo un nanometro? Avevo di fronte a me 80 liceali del Macomb County Math and Science Center, e stavo cercando di spiegare in che cosa consistono le mie ricerche. Dovevo far sì che riuscissero a immaginare l'inimmaginabile. «Il rapporto tra un nanometro e le dimensioni di un essere umano è equivalente al rapporto tra un uomo e dieci volte la distanza tra la Terra e la Luna», cominciai; ma mi resi subito conto che la distanza tra la Terra e la Luna è qualcosa che ben pochi di noi hanno toccato con mano. La mia fronte cominciò a imperlarsi di sudore. Riprovai: «Un nanometro è così piccolo che per arrivare alle sue dimensioni dovreste sezionare un capello umano l00 000 volte». Meglio. Ma come tradurre la distanza in tempo? «Se vi rimpicciolissi fino all'altezza di un nanometro, in un'ora potreste percorrere più o meno 2500 nanometri; a questa velocità impieghereste 82 anni (!) per percorrere una lunghezza pari alle dimensioni di un essere umano, dalla testa ai piedi». Stupore. I ragazzi cominciavano a capire che un nanometro non è solo piccolo, è così piccolo che il nano-mondo è totalmente estraneo a tutto quello che potremo mai immaginare di sperimentare. Eppure riusciamo a misurarlo.

Cinquant'anni prima della mia lezioncina ai futuri scienziati, Richard Feynman , il celebre fisico e premio Nobel, tenne una straordinaria lezione ai suoi colleghi riuniti per la conferenza della American Physical Society del 1959. La lezione, in puro stile Feynman, si intitolava semplicemente «C'è un sacco di spazio giù in fondo». Il «fondo» era la scala microscopica, dai micrometri (mille nanometri) fino ad atomi il cui diametro può essere di pochi decimi di nanometro. La tesi di Feynman era che non esistono leggi della fisica che possano impedirci di costruire macchine grandi solo qualche nanometro. È solo una questione di ingegneria.

Ci volle un po' per trasformare in realtà la visione di Feynman, ma verso la fine degli anni ottanta la nanotecnologia cominciò a spiccare il volo. L'invenzione di dispositivi capaci di visualizzare, misurare e maneggiare in vari modi oggetti di dimensioni pari a qualche nanometro permise di comprimere i dati in minuscole protuberanze nanometriche o di realizzare nanostrutture sempre più complesse. Tra gli anni novanta e i primi anni del nuovo millennio i nuovi sviluppi scatenarono una ridda frenetica di previsioni, alcune delle quali esagerate (la nanotecnologia risolverà tutti i nostri problemi energetici, medici e ambientali), altre apocalittiche (melma grigia di nanorobot che divorano tutto quello che incontrano, come nel remake del film Ultimatum alla Terra o nel libro di Michael Crichton Preda ).

Oggi la smania per la nanotecnologia si è affievolita, almeno nei media. Le promesse iniziali di nanorobot (o nanobot) capaci di rimuovere le placche di grassi insaturi che ostruiscono le nostre arterie non si sono realizzate con la velocità auspicata. La nanotecnologia non è priva di pericoli (fibre di dimensioni nanometriche possono causare il cancro: pensate all'amianto), ma l'immagine della melma grigia sembra decisamente eccessiva. I media sono passati a occuparsi d'altro. Tra gli addetti ai lavori, però, la nanotecnologia e la nanoscienza godono di ottima salute. Le ricerche sulla nanotecnologia - dalle nanobatterie alla nanomedicina - occupano un gran numero di fisici, ingegneri, chimici e ricercatori biomedici.

Personalmente, preferisco parlare di nanoscienza anziché di nanotecnologia. La nanotecnologia è il passo successivo, quello che si compie dopo aver chiarito tutti i risvolti scientifici. Di cosa si occupa la nanoscienza? In parole povere, di produrre, misurare e capire i sistemi in cui almeno una dimensione spaziale è dell'ordine del nanometro. È una definizione un po' vaga, che non ha mancato di creare qualche problema, poiché all'improvviso molti settori di ricerca tradizionali, come quelli sulle tecnologie dei film sottili e alcuni rami della chimica, sono stati catalogati come nanotecnologici solo perché si occupavano di oggetti più piccoli di un micron. È così che è nata la battuta per cui la nanotecnologia sarebbe semplicemente un espediente per ottenere finanziamenti. L'accusa non è del tutto falsa, almeno per ciò che riguarda i primi tempi, ma è anche vero che alle nanoscale c'è davvero qualcosa di speciale: quando si riduce un sistema alle dimensioni «magiche» del nanomondo, si osservano proprietà nuove e decisamente inaspettate.

Si dice spesso che le parole pronunciate da Feynman alla conferenza della American Physical Society del 1959 abbiamo dato il via alla rivoluzione della nanoscienza. La verità, tuttavia, è un po' più complicata. All'epoca del celebre intervento, il pubblico non prese l'argomento molto sul serio. Uno dei presenti ricorda: «La reazione generale fu divertita. Gran parte del pubblico pensò che Feynman stesse cercando di essere spiritoso ... la verità è che prese tutti assolutamente di sorpresa». Il discorso di Feynman fu riscoperto 25 anni dopo, quando molte delle sue previsioni si erano ormai avverate. A quel punto la tecnologia si era messa al passo con molte delle idee visionarie di Feynman, che finirono così per essere prese sul serio.

Feynman si era ispirato ai sistemi viventi, così come hanno fatto molti visionari nanotecnologi dei nostri giorni. Lo affascinava il modo in cui le cellule biologiche registravano l'informazione «su scala piccolissima», utilizzandola in seguito per «produrre sostanze», «spostarsi» e «fare ogni sorta di cose meravigliose». In realtà, se i nanotecnologi odierni sognano di costruire nanomacchine, dovranno accettare di essere stati battuti sul tempo dalla natura la bellezza di tre miliardi di anni fa! Le cellule viventi pullulano di molecole che effettuano operazioni stupefacenti alle nanoscale con una precisione che ha del portentoso.

Feynman aveva previsto che la miniaturizzazione alle nanoscale ci avrebbe permesso di memorizzare libri interi sulla capocchia di uno spillo, costruire motori piccolissimi, spostare singoli atomi o costruire calcolatori tascabili potentissimi. Tutte queste cose sono divenute realtà. Altre sue previsioni non sono ancora realizzabili: una di queste è la creazione di un chirurgo nanoscopico, quello che oggi viene chiamato «nanobot». Si tratta di un dispositivo minuscolo, da ingoiare come una pillola o da iniettare in un vaso sanguigno. Il nanobot potrebbe effettuare operazioni di nanochirurgia, come la rimozione delle placche dalle arterie o la ricerca e la distruzione delle cellule tumorali. C'è un campo, però, nel quale i ricercatori hanno fatto progressi notevoli, ed è la nanomedicina, o targeted drug delivery (letteralmente «consegna mirata dei farmaci»). Sono state realizzate nanostrutture capaci di identificare cellule-bersaglio specifiche (ad esempio le cellule tumorali) per poi colpirle con la sostanza trasportata (farmaci letali nel caso di una cellula tumorale, o frammenti di DNA per correggere malformazioni genetiche). Un'altra delle previsioni di Feynman, che per l'occasione si era ispirato a un racconto di fantascienza di Robert Heinlen , riguardava la possibilità di realizzare una macchina capace di costruire una versione miniaturizzata di se stessa. Quest'ultima, a sua volta, sarebbe stata in grado di costruire una copia ancora più piccola. Le macchine avrebbero dovuto costruire copie sempre più piccole di se stesse, fino all'ultima, grande pochi nanometri, come una famiglia di bambole russe.

| << |  <  |  >  | >> |

Pagina 128

Una credenza errata che si sente ripetere in continuazione è che il nostro DNA contiene tutta l'informazione necessaria alla creazione di un essere umano. È una sciocchezza! La quantità di informazione contenuta nel nostro DNA è sbalorditiva, ma non è affatto sufficiente a specificare la posizione di ogni molecola o di ogni cellula, e nemmeno la forma di un organo. Più che un piano dettagliato (come spesso viene definito), il DNA è una ricetta di cucina. Quando preparo una torta non devo specificare la destinazione di ogni singola molecola di amido o di zucchero: mi basta seguire le istruzioni e le molecole andranno dove devono andare. Gran parte delle informazioni necessarie per fare una torta o un essere umano sono contenute nelle leggi della fisica e della chimica. Le molecole «sanno» come organizzarsi da sé.

In natura, l'auto-assemblaggio delle molecole è presente ovunque e costituisce uno dei più importanti settori di ricerca della nanoscienza. Se riuscissimo a convincere le molecole a formare tutte le strutture che vogliamo - analogamente a ciò che si osserva negli organismi viventi - potremmo realizzare nuovi dispositivi a prezzi bassissimi, senza dover spendere milioni di dollari in sistemi di litografia a fascio elettronico o ionico. Non dovremmo fare altro che mettere tutto in una pentola e mescolare. Naturalmente, però, le cose non sono così semplici.

A uno dei miei dottorandi, Venkatesh Subba-Rao, piace raccontare un aneddoto: un giorno gli capitò di ascoltare il seminario di uno scienziato sulle strutture nei cristalli liquidi, e quando lui gli chiese per quale ragione si formassero tali strutture lo scienziato rispose: «Perché rendono minima l'energia libera!». Da allora, ogni volta che chiedo ai miei studenti perché nei loro esperimenti accade questa o quella cosa e loro non lo sanno, la risposta standard che ottengo è sempre quella. Nella maggior parte dei casi è anche giusta: tutto quello che accade in natura rende minima l'energia libera. Una risposta del genere, però, non ci dice granché. È l'equivalente scientifico della frase «perché Dio ha voluto così». Sarebbe più utile includere nella risposta i tipi di energia che compongono l'energia libera di un sistema. Ancora più utile sarebbe dire in che modo si spostano le molecole e in che modo si trasforma l'energia man mano che il sistema rende minima la propria energia libera. Vi ricordate? L'energia libera è la differenza tra l'energia totale del sistema e l'energia termica inutilizzabile: in altre parole, è la parte di energia utilizzabile. L'energia inutilizzabile è il prodotto della temperatura per l'entropia. Per minimizzare l'energia libera possiamo ridurre l'energia totale, aumentare la quantità di energia inutilizzabile o entrambe le cose. Nell'auto-assemblaggio possono verificarsi tutte queste cose insieme.

Uno degli esempi più familiari e sbalorditivi di auto-assemblaggio sono i fiocchi di neve, di cui abbiamo già parlato in precedenza. I fiocchi sono cristalli di acqua ghiacciata. Provate a chiedere ai miei studenti perché si formano i cristalli di neve: vi risponderanno che è per minimizzare l'energia libera. E in effetti, come abbiamo visto nel terzo capitolo, esiste una temperatura critica al di sotto della quale la diminuzione dell'energia libera porta alla formazione di fiocchi di neve; al di sopra di quella temperatura, invece, l'energia libera è minima quando l'acqua rimane allo stato liquido. Tuttavia vorremmo avere qualche informazione in più. I fiocchi di neve sono strutture così belle e complesse che spiegarle solamente in termini di una riduzione dell'energia libera sembra una soluzione di comodo. La riduzione dell'energia libera è il risultato, ma come ci si arriva? Come si forma la struttura?

La creazione dei fiocchi di neve è un esempio perfetto della combinazione di caso e necessità, entropia ed energia. La simmetria esagonale dei fiocchi è una rappresentazione macroscopica della sottostante simmetria molecolare dell'acqua ghiacciata. Le molecole d'acqua preferiscono disporsi secondo un ordine esagonale (a sei lati), come in un puzzle tridimensionale. La crescita del cristallo è influenzata dai valori esterni di umidità, temperatura e pressione. Dato che tutti e sei i lati del cristallo in formazione sono sempre soggetti alle stesse condizioni, la loro crescita segue approssimativamente lo stesso andamento, dando origine alla meravigliosa simmetria del fiocco.

La crescita di un fiocco di neve dimostra come la complessità e la bellezza possano nascere da gelidi (chiedo scusa per il gioco di parole) princìpi fisici. Il congelamento è accompagnato da un rilascio di calore: affinché l'acqua possa gelare, il calore deve essere smaltito (aumentando così l'entropia dell'ambiente circostante). I cristalli di ghiaccio, quindi, crescono più rapidamente là dove è più facile smaltire il calore, vale a dire sulle estremità appuntite di un corpo. Il fatto che le punte siano già il risultato di un processo di crescita rapida, però, dà origine a un feedback positivo: le zone del cristallo che crescono più rapidamente diventano appuntite, facilitando la trasmissione del calore. Questo, a sua volta, li fa crescere più rapidamente, e così via. Il risultato è quello che i fisici chiamano instabilità, e conduce alla formazione di strutture lunghe e appuntite. Ma c'è anche una forza che si oppone a tale processo: anche la temperatura locale dipende da quanto è acuminato il cristallo: le parti più appuntite (quelle con la curvatura più elevata) fondono a temperature più basse, riducendo così la differenza di temperatura con l'ambiente circostante. La riduzione di temperatura, a sua volta, rallenta la trasmissione del calore, opponendosi all'effetto della maggior esposizione delle punte. Se una punta diventa troppo aguzza la crescita rallenta: il feedback negativo compensa quello positivo. Quando ciò accade il cristallo si ramifica. La combinazione delle due tendenze - la formazione di punte e la ramificazione - porta alla crescita dendritica dei fiocchi di neve.

Un altro aspetto importante della crescita dei cristalli di neve è il trasporto di massa, cioè il fatto che nuove molecole possano unirsi al cristallo in formazione. Si tratta per lo più di un effetto dovuto alla diffusione, il moto casuale delle molecole nelle nubi di vapore acqueo. Il limite alla velocità di crescita di un cristallo è dettato dalla velocità con la quale questo moto viene raggiunto dalle molecole. La crescita del cristallo è limitata dalla diffusione. Anche in questo caso, le parti del cristallo che spiccano dal resto della formazione sono raggiunte più facilmente dalle molecole che si diffondono casualmente (pensate ai parafulmini, raggiungibili con facilità dal moto casuale di un fulmine), con un aumento conseguente dell'instabilità.

Come è complicato un singolo fiocco di neve! Con questo esempio ho solo voluto mostrare come l'interazione tra energia, entropia e altri meccanismi, come la diffusione e il trasporto di calore, applicata a una geometria sottostante, possa dare origine alla complessità e alla varietà, ma anche a una certa robustezza strutturale. I fiocchi di neve non sono vivi, ma servono a dimostrare che la formazione di strutture complesse come quelle che incontriamo nel mondo vivente possono nascere dalla dinamica delle leggi fisiche; sono esempi di strutture non viventi che presentano al tempo stesso caratteristiche ripetitive (tutti i fiocchi di neve sono esagonali, appuntiti e ramificati) con una varietà quasi sconfinata di forme all'interno di una struttura comune.

I nanotecnologi usano princìpi analoghi per creare nanostrutture sempre più complicate. L'obiettivo finale è la progettazione di macchine o circuiti nanoscopici capaci di crescere autonomamente, una molecola dopo l'altra.

| << |  <  |  >  | >> |

Pagina 157

5.

Il diavolo di Maxwell e il cricchetto di Feynman


                                Supponiamo ... che un recipiente sia diviso in
                                due porzioni, A e B, per mezzo di una parete con
                                un piccolo foro, e che un essere in grado di
                                vedere le singole molecole possa aprire e
                                chiudere il foro, in modo da permettere soltanto
                                alle molecole più veloci di passare da A a B e
                                soltanto a quelle più lente di passare da B ad
                                A. In questo modo, senza compiere lavoro, egli
                                innalzerà la temperatura di B e abbasserà quella
                                di A, in contraddizione con il secondo principio
                                della termodinamica.
                                          James Clerk Maxwell, Teoria del calore

                                Il dito in movimento scrive e, avendo scritto,
                                Avanza: tutta la tua pietà o il tuo ingegno
                                Non lo indurranno a cancellare mezza riga,
                                Né tutte le tue lacrime laveranno mai una sola
                                parola
                                                        Omar Khayyam (1048-1131)



James Clerk Maxwell (1831-1879) ha lasciato dietro di sé un'eredità scientifica di tutto rispetto. A lui dobbiamo l'unificazione dell'elettricità e del magnetismo, la scoperta delle onde elettromagnetiche, la spiegazione della natura della luce, la risoluzione dell'enigma degli anelli di Saturno e la formulazione della moderna teoria dei colori. Maxwell, inoltre, ha posto le basi della teoria ingegneristica del controllo ed è stato il cofondatore della meccanica statistica. Per finire, ha inventato un diavolo.

Il libro del fisico scozzese sulla termodinamica e la fisica statistica, La teoria del calore, è un capolavoro di chiarezza. Nel descrivere il secondo principio della termodinamica, Maxwell scrive:

Uno dei fatti stabiliti con la massima certezza, in termodinamica, è che in un sistema [chiuso] ... che non consente variazioni di volume o scambio di calore, e nel quale sia la temperatura che la pressione sono ovunque le stesse, è impossibile produrre qualsiasi differenza di temperatura o di pressione senza compiere lavoro. È il secondo principio della termodinamica, ed è indubbiamente vero finché lo applichiamo a corpi macroscopici e non siamo in grado di percepire o manipolare le singole molecole che li compongono.

Le parole di Maxwell definiscono il secondo principio con una chiarezza insuperabile. Il principio proibisce la creazione di differenze di temperatura o di pressione in un mezzo uniforme, a meno che tali differenze non siano prodotte compiendo lavoro. Alla fine della frase, però, Maxwell aggiungeva un avvertimento: finché lo applichiamo a molte molecole («a corpi macroscopici») e non siamo in grado di esaminare ogni singola molecola, il secondo principio è valido. «Ma se immaginiamo che esista un essere dai sensi così acuti da riuscire a seguire la traiettoria di ogni molecola, tale essere, dagli attributi sostanzialmente finiti come i nostri, sarebbe in grado di fare ciò che attualmente ci è precluso». Un essere simile potrebbe violare il secondo principio?


Il diavolo di Maxwell

Il secondo principio fu inventato per spiegare certe limitazioni delle macchine. Era ben noto che nelle macchine a vapore gran parte dell'energia fornita dal carbone non veniva convertita in lavoro meccanico, andando sprecata sotto forma di calore. Tra la fine del XVIII secolo e la metà del XIX, i fisici e gli ingegneri cercarono in ogni modo di aumentare l'efficienza delle macchine. L'efficienza è appunto il rapporto tra l'energia utile generata e l'energia immessa sotto forma di carburante. Il motore di un'automobile, ad esempio, ha un'efficienza dell'ordine del 25 per cento. Ciò significa che solo il 25 per cento della benzina che mettiamo nel serbatoio viene utilizzata per far muovere la macchina o per alimentare i circuiti elettrici: il resto viene perso sotto forma di calore. Esiste un limite all'efficienza delle macchine? È possibile, almeno teoricamente, costruire una macchina con un'efficienza del 100 per cento?

La neonata scienza della termodinamica e la scoperta che il calore era una forma di energia portarono Helmholtz a formulare la legge universale della conservazione dell'energia. Helmholtz dimostrò in maniera convincente che il moto e la crescita di un essere vivente dovevano essere alimentati da un combustibile chimico: il cibo. Sotto questo aspetto, un organismo vivente era simile a una macchina. Come una macchina, convertiva un tipo di energia di alta qualità in movimento e calore, e questo riportava alla stessa domanda: esisteva un limite all'efficienza delle macchine che stanno alla base della vita?

Agli inizi del XX secolo era praticamente assodato che tali macchine operavano su scala molecolare. Che cosa ci serve per capirle, e qual è la relazione tra il loro funzionamento e quello delle macchine macroscopiche della nostra vita di tutti i giorni?

Le macchine macroscopiche - i motori delle automobili, le centrali elettriche ecc. - sfruttano i gradienti, cioè le differenze di temperatura o di pressione, per convertire in movimento il combustibile. Il primo a fare questa importante osservazione fu un giovane ingegnere dell'esercito francese, Sadi Carnot (1796-1832), nel 1824. Carnot pose le basi della termodinamica moderna notando che l'efficienza di una macchina non avrebbe mai potuto raggiungere il 100 per cento, nemmeno in teoria, e che il limite era fissato dal gradiente di temperatura utilizzato. In altre parole, per aumentare l'efficienza di una macchina bisognava che il fuoco fosse ancora più caldo e che l'ambiente circostante fosse ancora più freddo. Quando la temperatura all'interno di una macchina si avvicina a quella dell'ambiente esterno, la macchina non può più compiere lavoro e la sua efficienza crolla a zero. Ci ritroviamo così nella situazione descritta da Maxwell nella sua definizione del secondo principio.

Nelle cellule degli esseri viventi temperatura e pressione sono uniformi: non esistono camere di combustione o serbatoi sotto pressione. Non ci sono gradienti di temperatura né di pressione. Secondo Carnot, nessuna macchina potrebbe mai funzionare nel nostro corpo. Il secondo principio della termodinamica ci permette di estrarre lavoro da un gradiente; il prezzo da pagare è la dispersione di calore e il livellamento del gradiente. Il risultato è l'equilibrio, uno stato di temperatura e pressione uniformi dal quale non è più possibile estrarre lavoro. Come fanno allora le macchine molecolari a estrarre lavoro dall'ambiente a temperatura uniforme delle cellule senza violare il secondo principio della termodinamica?

Quando, nel XIX secolo, venne formulato il secondo principio, i fisici non erano sicuri che si trattasse di una legge naturale inconfutabile. Ai fisici piace cercare il fondamento delle cose ricorrendo a vari metodi: esperimenti, calcoli, teorici e Gedankenexperiment. L'ultimo è un termine tedesco il cui significato letterale è «esperimento mentale»: si tratta di una situazione ipotetica, che può esistere solo nella mente umana e che serve a testare le teorie fisiche in condizioni limite. L'idea è quella di creare un paradosso - una contraddizione tra teorie fisiche diverse - o di vedere fino a che punto si può spingere una teoria, o un risultato sperimentale, su un terreno inaccessibile al mondo reale. Tra gli esperimenti ideali più famosi troviamo il gatto di Schrödinger (che dimostrò l'assurdità di alcune interpretazioni della meccanica quantistica); la deduzione, da parte di Galileo, del carattere costante dell'accelerazione durante la caduta libera, indipendentemente dalla massa dell'oggetto che cade (Galileo non fece mai cadere alcun oggetto dalla Torre di Pisa, e giunse alla sua deduzione osservando il rotolamento di alcune sfere lungo un piano inclinato); la palla di cannone di Newton (grazie al quale fu possibile dimostrare che il moto dei corpi celesti è collegato alla caduta degli oggetti sulla Terra); e per finire, il diavolo di Maxwell, la minuscola creatura capace di trasferire il calore da un corpo freddo a un corpo caldo.

Il diavolo inventato da Maxwell nel 1867 era un'ipotetica, piccolissima creatura messa a guardia di una porticina tra due contenitori pieni di gas, inizialmente alla stessa temperatura media (fig. 5.1). Il diavolo aveva il compito di separare le molecole veloci del gas da quelle lente. Ad esempio, se una molecola veloce si avvicinava alla porta sorvegliata dal diavolo provenendo da destra, lui la lasciava entrare nel contenitore di sinistra; se la molecola era lenta, invece, ne impediva il passaggio. Viceversa, era ben contento di far passare da sinistra a destra le molecole lente ma non quelle veloci. Ben presto il diavolo aveva confinato tutte le molecole veloci nel contenitore di sinistra e quelle lente a destra. Partendo da un sistema con temperatura uniforme, il diavolo aveva creato un gradiente di temperatura, raffreddando la metà sinistra del sistema e riscaldandone la metà destra (non dimentichiamo che la temperatura di un gas è legata direttamente alla velocità delle molecole del gas). A quel punto si sarebbe potuto sfruttare il gradiente per produrre lavoro, installando una piccola turbina sulla soglia della porta custodita dal diavolo: si sarebbe così riusciti a estrarre lavoro utile da un sistema a temperatura uniforme, in palese contraddizione con il secondo principio. D'altro canto, però, il diavolo molecolare inventato da Maxwell era proprio quello che ci voleva per spiegare il funzionamento delle macchine molecolari! Possibile che le nostre cellule siano piene di diavoletti di Maxwell molecolari? Possibile che i meccanismi alla base della vita violino il secondo principio?

| << |  <  |  >  | >> |

Pagina 207

7.

Twist and Route


                                La natura ci dimostra che le molecole possono
                                fungere da macchine perché sono queste macchine
                                che fanno funzionare gli esseri viventi. Gli
                                enzimi sono macchine molecolari che
                                costruiscono, spezzano e riconfigurano i legami
                                che tengono unite altre molecole. I muscoli
                                obbediscono a macchine molecolari che trascinano
                                le fibre, una dopo l'altra. Il DNA serve da
                                sistema di stoccaggio dei dati e come sorgente
                                di istruzioni digitali per i ribosomi, macchine
                                molecolari che fabbricano altre molecole, le
                                proteine.

                                    K. Eric Drexler, Machines of Inner Space, in
                                    «Nanotechnology: Research and Perspectives».



Una cellula è come una città: ha una biblioteca (il nucleo, che contiene il materiale genetico), centrali elettriche (i mitocondri), autostrade (i microtubuli e i filamenti di actina), camion (la chinesina e la dineina), inceneritori (i lisosomi), mura (le membrane), uffici postali (l'apparato del Golgi) e molte altre strutture che svolgono funzioni vitali (fig. 7.1).

Tutte queste funzioni sono svolte da macchine molecolari. Alcune di queste piegano il DNA; altre trasportano merci lungo autostrade molecolari o attraverso la membrana cellulare. Oggi sappiamo che le macchine molecolari sono come piccoli diavoli di Maxwell che si nutrono regolarmente di ATP. Cominciamo ad avere una vaga idea di come funzionano. Nelle cellule degli esseri viventi, però, le macchine di questo tipo sono tantissime: macchine che fanno tante cose diverse, che si muovono in modi diversi e che collaborano con modalità che non abbiamo ancora capito del tutto. In questo capitolo ne esamineremo alcune, per scoprire che cosa fanno, perché ne abbiamo bisogno, come funzionano, in che modo gli scienziati ne hanno chiarito i misteri, e infine vedremo quali interrogativi attendono ancora una risposta. Scopriremo che la vita non rivela tanto facilmente i propri segreti.

| << |  <  |  >  | >> |

Pagina 260

8.

L'orologio e il ribosoma


                                Ho chiamato questo principio, secondo il quale
                                ogni piccola variazione, se utile, viene
                                conservata, selezione naturale.
                                                                  Charles Darwin

                                Che cosa [potrebbe fare], come si è già detto,
                                se non aumentare oltre misura la nostra
                                ammirazione per l'abilità impiegata nella
                                formazione di una simile macchina? O forse,
                                invece, dovrebbe indurci immediatamente alla
                                conclusione opposta, cioè che non c'è stata arte
                                né talento alcuno, sebbene ogni indizio a favore
                                dell'arte e del talento rimanga al suo posto, e
                                che quest'ultima, suprema opera d'arte vada
                                aggiunta così com'è a tutto il resto? Lo si può
                                sostenere senza cadere nell'assurdo? Ma questo è
                                ateismo.
                                                                   William Paley



William Paley (1743-1805) fu un sacerdote, teologo e filosofo del XVIII secolo. La sua opera suscitò nei colleghi sacerdoti un'ammirazione così grande che la Chiesa lo nominò canonico della cattedrale di St. Paul e rettore di Bishopwearmouth, garantendogli un reddito più che sufficiente per le necessità di un prete filosofeggiante. Gli scritti morali di Paley rivelano una modernità sorprendente: si opponeva alla schiavitù e alla conservazione attiva del divario tra poveri e ricchi e giunse persino a difendere il diritto dei poveri a rubare, se ciò si rendeva indispensabile per nutrire se stessi e la propria famiglia. Nel campo della storia naturale, invece, Paley era un reazionario. Pur scrivendo alla fine della rivoluzione scientifica, aveva adottato una filosofia naturale che richiamava concetti tipici dell'epoca pre-rivoluzionaria. Ciononostante, i suoi scritti erano così convincenti che persino Darwin, da giovane, divenne un suo ammiratore. Ciò che piaceva ai suoi colleghi del clero era che Paley, ai loro occhi, distruggeva la filosofia meccanicista. Anche loro, come Paley, ritenevano assurdo che si potesse credere che la materia fosse in grado di organizzarsi autonomamente ed erano concordi nell'equiparare una credenza simile all'ateismo.

Il brano più celebre degli scritti di Paley è l'inizio della sua Teologia naturale: «Supponiamo che io trovassi per terra un orologio, e che mi venisse chiesto come mai questo si trovi proprio lì; notiamo ... che le sue varie parti sono ... insieme per uno scopo ... che l'orologio deve avere avuto un creatore: che deve essere esistito un artefice, o più artefici, che l'hanno fabbricato con [uno] scopo».

L'analogia tra gli organismi viventi e gli orologi è stata così convincente da essere stata impiegata da radicali agnostici come La Mettrie, apologeti del Cristianesimo come Paley e persino da scienziati del XX secolo come Schrödinger per sostenere punti di vista totalmente divergenti. Il semplice fatto che la somiglianza superficiale di un organismo con un orologio possa essere utilizzata a favore dell'ateismo, del Cristianesimo e del misticismo scientifico dovrebbe far nascere qualche sospetto. Siamo sicuri che si tratti davvero di un'analogia valida?

Per rispondere, riformuliamo la domanda: il nostro corpo assomiglia alle macchine che progettiamo? La risposta, ovviamente, non può che essere negativa. Per quanto Cartesio o La Mettrie fossero influenzati dal sistema di pompe, tubi e leve che formano il nostro corpo, oggi sappiamo che un organismo è il frutto delle interazioni tra molecole. Certo, nel nostro corpo ci sono pompe, leve e tubi macroscopici, ma tutti questi elementi, da soli, non sono in grado di spiegare perché siamo vivi. Anche i batteri sono vivi, eppure non possiedono un cuore, delle braccia o dei polmoni. Sappiamo costruire una macchina che contiene pompe e leve, ma non sarà in grado di procurarsi il cibo da sé e riprodursi.

Se la vita si basa sulle molecole, quindi, sarà necessariamente soggetta alla potenza generatrice di casualità del moto atomico. Il caso avrà un ruolo importante. E in effetti, esaminando il moto delle macchine molecolari o i meccanismi dell'evoluzione, ci accorgiamo che il caso accompagna la vita in ogni suo istante. Per un orologio, invece, le cose vanno diversamente: l'ultima cosa che vogliamo in un orologio è che il caso vi abbia un ruolo; farebbe soltanto danni.

Paley si faceva beffe del caso: «Cos'ha mai fatto il caso per noi? Nel corpo umano, ad esempio, il caso, ovvero l'azione di cause senza disegno, può produrre una cisti, una verruca, un neo, una pustola, ma mai un occhio. Tra le sostanze inanimate, una zolla, un ciottolo o una goccia di liquido possono essere effetto del caso, ma mai si potrà dire lo stesso di un orologio, di un telescopio o di qualsiasi corpo organizzato che risponda a uno scopo di qualsivoglia valore attraverso un meccanismo complicato. Non è mai successo che esistesse un oggetto del genere senza che da qualche parte ce ne fosse l'intenzione». Ciò che trovo interessante nel punto di vista di Paley è che la goccia di liquido viene relegata nel dominio del caso, mentre si tratta indubbiamente di un frutto della necessità. Un ciottolo, naturalmente, ha una componente casuale, ma riassume in sé anche la formazione degli atomi a partire dalle particelle subatomiche, la creazione degli elementi pesanti nelle stelle supermassive e nelle supernove, la cristallografia dei minerali silicati complessi e numerosi processi geologici, dal vulcanismo all'erosione. Una verruca, invece, è il risultato di una macchina sofisticata, evoluta: un virus. Paley non poteva sapere tutte queste cose, ma l'esempio fatto mostra il destino di credenze così radicate alla luce delle conoscenze moderne.

Un orologio ha chiaramente un artefice, perché un orologio è un oggetto dalla struttura delicata. Esegue un compito ben preciso, funziona solo se funzionano tutte le sue parti e non sopporta ingerenze del caso o del caos. Per farla breve, un orologio non è poi così complicato. Di fatto - e me ne scuso con mio padre, orologiaio - un orologio, se paragonato all'organello o alla più piccola delle cellule, ha la complessità di un puzzle per bambini. D'altro canto, molte entità naturali che lo stesso Paley non avrebbe mai considerato frutto di un disegno sono di una complessità smisurata: le stelle, i pianeti, le montagne, i vulcani, l'andamento del clima, e - certo, anche loro - i ciottoli.

Sul tema della riproduzione, Paley fu vittima di un errore analogo. Riflettendo sulla possibilità di scoprire, in futuro, che l'orologio era in grado di creare un altro orologio «simile a sé», si chiese se ciò non avrebbe dimostrato che il creatore era ancora più raffinato di quanto pensassimo. La capacità dell'orologio di riprodursi lo avrebbe reso ancora più complesso, e quindi avrebbe reso ancora più probabile l'esistenza di un artefice responsabile della sua creazione. Il ragionamento, però, non sta in piedi: è evidente che se un orologio potesse costruire un altro orologio non avrebbe bisogno di un creatore. Un orologio sarebbe semplicemente il risultato di un altro orologio. E se il nuovo orologio, come afferma Paley, fosse semplicemente «simile» all'originale, non potrebbe essere addirittura un po' meglio di quest'ultimo? Curiosamente, nel sostenere che il nuovo orologio è simile - e non identico - al vecchio, Paley apre la porta proprio al caso. Simile, ma quanto? Che cosa determina ciò che è identico e ciò che è diverso nella discendenza? E se ci fossero milioni di orologi che si riproducono, scambiandosi informazioni sulla propria struttura e trasferendo i progressi alla generazione successiva? Non osserveremmo un miglioramento degli orologi man mano che il tempo passa?

Prima che possiate obiettare che gli orologi non fanno figli, lasciate che vi ricordi che sto semplicemente seguendo il ragionamento di Paley. È chiaro che se un orologio si riproducesse non sarebbe più un orologio. Un orologio è un artefatto realizzato con uno scopo esterno, cioè dire che ora è. Se cominciasse a riprodursi, acquisterebbe immediatamente uno scopo interno: l'efficienza riproduttiva. Se ci fosse un agente esterno che seleziona gli orologi più precisi e lascia che solo questi si riproducano, col passare delle generazioni avremmo orologi sempre migliori. In assenza di un agente esterno, però, gli orologi smetterebbero di essere solo orologi, perché l'efficienza riproduttiva diverrebbe la loro nuova raison d'être. Dopo qualche tempo si trasformerebbero in macchine totalmente diverse, con le caratteristiche di quelle che si sono riprodotte meglio.

Adesso facciamo un passo in più. Nulla funziona senza energia. Un orologio funziona solo se gli si dà la carica e un organismo vivente deve mangiare. Un orologio capace di riprodursi, quindi, avrebbe bisogno di energia. Dovrebbe trovare un modo per battere la concorrenza degli altri orologi e accaparrarsi una quantità di energia sufficiente per riprodursi. Per riuscirci, dovrebbe trovare un nuovo ruolo, un modo nuovo per guadagnarsi da vivere. I biologi chiamano questi ruoli nicchie. In breve non riconosceremmo più i nostri orologi: pochi di questi sarebbero ancora in grado di dirci che ora è. Gli ingranaggi verrebbero utilizzati per digerire o per muoversi; le lancette e il quadrante servirebbero ad attrarre un partner adatto per scambiare informazione. Chissà, forse una lancetta delle ore fosforescente farebbe impazzire il sesso opposto. Questa è evoluzione: è vita.


L'evoluzione

Come si evolvono le molecole? Nonostante i teatrali dibattiti avvenuti in diversi consigli scolastici americani, il meccanismo dell'evoluzione, come abbiamo visto nel primo capitolo, è abbastanza ovvio, a patto di considerarlo con una mentalità aperta. Proprio questa constatazione spinse Thomas Huxley , che sosteneva le idee di Darwin, a lamentarsi di non averci pensato prima lui. Le molecole sono soggette alla stessa selezione naturale che vale per le parti macroscopiche di un organismo. Di fatto, l'analisi dell'evoluzione delle proteine è un buon modo per capire come funziona l'evoluzione, poiché vi è una relazione diretta tra la sequenza degli aminoacidi di una proteina e la sua codifica all'interno del DNA. Ogni novità a livello molecolare - qualsiasi nuova macchina molecolare che trasporti un carico un po' più rapidamente o che commetta meno errori nel trascrivere il DNA - darà un vantaggio all'organismo che la ospita. Di conseguenza, un macchinario molecolare migliore finirà per imporsi all'interno di una popolazione. Oppure, al variare delle condizioni ambientali, emergeranno nuovi meccanismi capaci di far fronte al cambiamento.

[...]

È interessante notare come la parte del leone nella storia della vita (stiamo parlando di tre miliardi di anni, cioè quasi tre quarti del totale) l'abbia avuta l'evoluzione dei soli organismi unicellulari. Gli organismi multicellulari apparvero solo nell'ultimo miliardo di anni. Perché ci misero così tanto tempo? Un'occhiata alla complessità dei meccanismi attivi nelle nostre cellule ci fa intuire la risposta: ci vollero miliardi di anni prima che l'evoluzione trasformasse i primi enzimi primitivi nelle macchine complesse oggi in funzione nelle cellule moderne. Gli organismi multicellulari fecero la loro comparsa solo quando si raggiunse un livello minimo di efficienza e di complessità. Un elemento in favore di questa lettura dei primi passi dell'evoluzione della vita è il fatto che tutti gli animali (e le piante) multicellulari condividono le stesse caratteristiche fondamentali. Può sembrare avvilente, ma su scala nanometrica le differenze tra un essere umano e un fungo sono ben poche. Gli attrezzi cellulari fondamentali sono gli stessi. La loro complessità spiega il tempo che è stato necessario per metterli a punto. Quando gli attrezzi furono pronti, l'evoluzione fu libera di dar vita a creature multicellulari sempre più stupefacenti, dai polpi alle foreste di sequoie. In un certo senso, il mistero della vita si cela a livello molecolare. E lì che è avvenuto il vero lavoro dell'evoluzione. Il resto è la classica ciliegina sulla torta.

[...]

Per molti biologi, i cambiamenti evolutivi del DNA sono gli eventi più importanti di tutta la storia della vita. Un sostenitore di questa tesi è il biologo dell'evoluzione Richard Dawkins , noto per il concetto di «gene egoista». Si tratta, naturalmente, di un punto di vista con molti aspetti positivi, ma va detto che spesso i biologi sottovalutano il ruolo della legge fisica. La visione DNA-centrica tende a privilegiare il caso rispetto alla necessità. Ne hanno approfittato i creazionisti, che amano servirsi a sproposito del concetto di casualità per sostenere che l'evoluzione è dominata dal caso e che dal puro caso non avrebbe potuto emergere la complessità della vita.

Se l'evoluzione fosse davvero dominata dal caso, la probabilità di creare anche solo una proteina funzionale sarebbe astronomicamente piccola. Questo calcolo è un giochino che va di moda tra i creazionisti. Ma questo tipo di probabilità è irrilevante. L'evoluzione non è dominata dal caso: è la collaborazione tra un processo casuale (la mutazione) e un processo necessario, non casuale (la selezione). È il risultato di un equilibrio tra caso e necessità. Non è un evento insolito: in natura, tutto è frutto di questo equilibrio. In caso contrario la natura sarebbe una struttura priva di particolarità, identica a se stessa ovunque (se vincesse la necessità) o una «poltiglia» casuale priva di qualsivoglia struttura (se vincesse il caso). L'ordine raffinato e l'incredibile varietà della natura a ogni livello - dalle galassie alle molecole - è invece il risultato dell'interazione fruttuosa tra il caso e la necessità. Qual è la probabilità che esista la Terra o che esista un ciottolo? La domanda non ha senso, così come non ha senso la domanda sull'assemblaggio casuale di una proteina. L'evoluzione non è un processo casuale.

| << |  <  |  >  | >> |

Pagina 279

9.

Dalla materia alla vita


                                Né il DNA né altri tipi di molecole possono, da
                                soli, spiegare la vita.
                                                   Lynn Margulis, What is life?



Nel libro Il modello biologico, il celebre biologo e scrittore di Harvard Ernst Mayr (1904-2005) scriveva che ogni volta che filosofi e scienziati hanno parlato della vita lo hanno fatto considerandola antitetica alla mancanza di vita di «un oggetto inanimato». Il problema di questa definizione, secondo Mayr, è che sembra riferirsi a una «cosa», e che un'idea del genere ha portato fuori strada per secoli sia i biologi che i filosofi. Se la vita è una cosa, allora bisogna distinguerla chiaramente dalle altre cose, finendo per essere costretti a invocare l'esistenza di una «sostanza vitale» o di una «forza vitale». Ma appena ci rendiamo conto che la vita non è una cosa ma un processo, sosteneva Mayr, possiamo cominciare a studiarla in maniera scientifica. Possiamo operare una distinzione tra ciò che è vivente e ciò che non lo è. Potremmo persino cercare di spiegare in che modo i processi vitali possano avere la loro origine nelle molecole.

Nessuno è in grado di spiegare che cosa sia la vita. Il problema della domanda «Che cos'è la vita?» — una domanda che non solo per centinaia, ma addirittura per migliaia di anni ha spinto filosofi e scienziati alla ricerca di una forza vitale — è sempre stato questo. Anche se non siamo in grado di definire che cosa sia la vita, tuttavia, sappiamo spiegare come funziona, sappiamo spiegarne il processo. Per riprendere le parole di Mayr, «la rivoluzione della biofisica molecolare e della nanoscienza è riuscita a spiegare in che modo la vita, intesa come processo, possa essere il prodotto di molecole che, quanto a loro, non sono viventi». Si tratta di un passo importante. Per determinare le caratteristiche della vita a partire dalla «mancanza di vita di un oggetto inanimato» dobbiamo capire anzitutto come fanno le molecole a generare moto e attività direzionali: in altre parole, come si passa dal caos all'ordine. È proprio ciò che la nuova scienza delle macchine molecolari è riuscita a fare. Ma è abbastanza? La «vita» coincide realmente con l'attività complessiva di tutte le macchine molecolari del nostro corpo?

Purtroppo, capire come funziona la chinesina o l'ATP sintasi non spiega la vita umana, e nemmeno quella di una singola cellula. Posso prendere tutte le molecole di una cellula, schiaffarle in una provetta e agitarle per bene: può darsi che qualcuna delle proteine motrici si dimeni un poco, ma non assisteremo all'auto-assemblaggio di una cellula vivente. Ma allora siamo tornati al punto di partenza? Abbiamo realmente bisogno di una forza invisibile che coordini l'attività molecolare nelle nostre cellule? Niente affatto. Ormai dovremmo saperne abbastanza per capire che non ce n'è bisogno. Ciò che distingue gli organismi viventi non è un'esistenza al di fuori della fisica, ma il fatto che essi si basino su una struttura dinamica auto-organizzata che perpetua nel tempo l'organizzazione dell'organismo. La vita si auto-sostiene. La vita proviene dalla vita.

Tutti gli atomi di ognuno di noi vengono sostituiti ogni sette anni, eppure rimaniamo sempre gli stessi. Non siamo gli atomi di cui siamo fatti, e non siamo neanche le proteine, il DNA o le macchine molecolari del nostro corpo. Siamo un processo complesso, un programma, per così dire, che gira su un hardware chemo-meccanico. L'analogia della vita come programma di computer è perfetta per i nostri tempi, dove i computer hanno occupato lo status iconico che un tempo era patrimonio degli orologi e delle macchine. Tuttavia dobbiamo fare attenzione a non abusarne. Il «programma» che costituisce il processo della vita è massivamente parallelo, decentralizzato, auto-adattivo, «spugnoso» e controllato quasi esclusivamente da scambi di materia (con l'eccezione degli impulsi nervosi, sebbene anche in questo caso ci sia uno scambio di materia). È anche un programma che si è evoluto per miliardi di anni.

La vita è una danza molecolare programmata. Non possiamo permettere che i motori molecolari spostino un carico scelto a caso in un posto scelto a caso. Carichi specifici devono raggiungere posti precisi in momenti ben precisi. Lo stesso vale per tutte le attività che hanno luogo all'interno delle cellule: quali proteine produrre? Quando? In che quantità? Quand'è che un motore molecolare deve agganciare un carico e quando invece rilasciarlo? Nel sesto capitolo abbiamo visto di sfuggita in che modo le cellule regolano queste decisioni. La maggior parte delle proteine complesse possono essere controllate grazie all'allosteria, la variazione della struttura e dell'attività che si verifica quando la proteina si lega a una molecola di controllo. Nelle nostre cellule, le proteine regolano altre proteine, ma anche la trascrizione del DNA. A loro volta, le proteine sono assemblate a partire dalle istruzioni contenute nel DNA e sono controllate da altre sostanze (zuccheri, ioni e lipidi). Il complesso programma della «vita» emerge da complicati cicli di feedback che legano tutte queste molecole in un sistema di reti complesse. L'idea di uno stato dinamico di cicli di feedback complessi è difficile da capire a fondo, ma è proprio ciò che accade in una cellula. Le molecole complesse presenti nelle nostre cellule sono autentiche meraviglie di ingegneria dell'evoluzione. La cellula, però, diventa tale solo quando queste molecole cooperano all'interno di una rete complessa di interazioni regolate; ciò che chiamiamo vita è questa attività cooperativa, auto-sostenuta e regolata.

| << |  <  |  >  | >> |

Pagina 289

Il fisico e il biologo

Abbiamo scomposto la vita nei suoi costituenti elementari: DNA, proteine, enzimi, macchine molecolari. Per un fisico, l'idea che si possa capire il funzionamento di qualcosa riducendolo alle parti che lo compongono è del tutto naturale. Secondo alcuni, la fisica non è altro che il tentativo di scomporre ogni cosa in elementi sempre più piccoli finché non si troverà il costituente o l'equazione fondamentale che spiega tutto. I biologi sanno che, quando si studia la vita, un approccio del genere non funziona. Non esiste un «atomo di vita» e non esiste una formula che spieghi la vita.

Come abbiamo visto, grazie alla meccanica statistica e alla nanoscienza siamo in grado di decifrare in che modo l'attività direzionale delle macchine molecolari emerga dal caos molecolare sottostante. La nostra attuale conoscenza di queste macchine, però, è ancora ben lontana dalla piena comprensione del funzionamento di una cellula vivente. Il passo successivo consiste nel capire le interazioni tra macchine molecolari all'interno delle reti complesse che gestiscono i segnali cellulari e le attività di regolazione. L'accesso a questo nuovo livello di conoscenza fa emergere nuove proprietà specifiche, avvicinandoci ulteriormente alla piena comprensione del funzionamento della vita.

Capire le singole parti è cruciale, ma le parti, di per sé, non sono sempre sufficienti a spiegare il tutto. Le interazioni complesse tra le parti creano nuovi processi, princìpi e strutture che pur avendo il proprio fondamento materiale nelle parti sottostanti ne sono concettualmente indipendenti. Una visione del genere è ciò che chiamiamo «olismo».

Per ragioni che mi risultano misteriose, esiste un dibattito molto acceso tra scienziati di ogni sorta su quale sia l'approccio più corretto nei confronti della scienza: olismo o riduzionismo? Il riduzionismo - e spero di essere riuscito a dimostrarlo in questo libro - è essenziale se si vuole capire che cos'è la vita. Senza il riduzionismo gli scienziati avrebbero smesso da molto tempo di esplorare scale sempre più piccole e si sarebbero lasciati sfuggire le meraviglie delle macchine molecolari. Al tempo stesso, le macchine molecolari non spiegano tutto. Gli scienziati devono ancora rispondere agli interrogativi sulle loro interazioni e sul loro ruolo nella complessità della cellula. L'obiettivo finale resta sempre la spiegazione della totalità dei processi vitali, dalle molecole alle cellule e, per finire, agli organismi. Dopo aver smontato il giocattolo, vogliamo rimettere insieme tutti i pezzi. È così che si impara come funzionano le cose. Il riduzionismo e l'olismo, quindi, sono due lati della stessa medaglia: fanno parte entrambi di quella che dovrebbe essere buona scienza.

In un certo senso, la battaglia tra olismo e riduzionismo è la prosecuzione moderna dell'antica lotta tra gli atomisti e i vitalisti. Postulando l'esistenza di atomi in perpetuo movimento, gli antichi atomisti spiegavano le attività e i cambiamenti all'opera nella realtà in termini delle interazioni tra particelle, la cui natura rimaneva sostanzialmente indecifrabile. I vitalisti, con la loro visione top-down, affermavano l'impossibilità di ridurre la vita alle sole forze fisiche, poiché la vita, se osservata dall'esterno, appariva del tutto misteriosa e diversa dal mondo inanimato. La linea di faglia che separa il riduzionismo dall'olismo attraversa tutte le discipline scientifiche, ma in modo particolare la biologia. Gli ecologi, ad esempio, devono pensare alle interazioni di molti organismi in un ambiente complesso in chiave olistica; all'estremo opposto dello spettro, i biologi molecolari e i biofisici studiano la vita attraverso l'analisi dei suoi componenti più piccoli.

Ernst Mayr fu uno dei difensori più accaniti dell'olismo biologico e uno dei massimi biologi dell'evoluzione del XX secolo. Uno dei suoi più grandi successi fu la miglior definizione moderna di specie, cioè l'idea che la separazione tra le specie fosse definita dalla loro impossibilità a incrociarsi. Mayr scrisse molti splendidi libri sulla storia della biologia e dell'evoluzione, e fu uno dei sostenitori più accesi della teoria di Darwin. Purtroppo, però, aveva un difetto (a mio giudizio) curioso: odiava i fisici.

Più in generale, Mayr era profondamente contrario agli approcci riduzionistici alla biologia. In un articolo pubblicato nel 2004 si spinse addirittura a fare l'affermazione seguente: «Per quel che ne so, nessuna delle grandi scoperte compiute dalla fisica nel XX secolo ha mai contribuito alla conoscenza del mondo vivente». Se pensiamo che tutte le innovazioni tecniche di cui abbiamo parlato nel corso del libro - come la spettroscopia a fluorescenza, la nanotecnologia o la diffrazione a raggi X - hanno a che fare con la fisica del XX secolo, un'affermazione del genere da parte di uno scienziato così importante mi sembra il frutto di una disinformazione quantomeno bizzarra. Sembra quasi che Mayr fosse sinceramente preoccupato dall'eventualità che la sua amata biologia potesse finire sotto l'egemonia dei fisici. Ma un timore del genere era e resta infondato.

In tutta onestà, Mayr riuscì meglio di chiunque altro a spiegare perché la fisica e la biologia sono così diverse. Per lui le differenze riguardavano il livello di complessità, il ruolo del caso, l'importanza della storia evolutiva e l'analisi delle specie come popolazioni. Come abbiamo visto, il caso e la complessità sono proprietà fondamentali della vita. Mayr, ad esempio, aveva decisamente ragione nel ritenere che gran parte della biologia fosse una questione di circostanze fortuite, i cosiddetti «accidenti congelati». La biofisica è in grado di spiegare come faccia un ribosoma a tradurre il codice genetico in una proteina, ma il codice genetico in sé sembra essere un mero frutto del caso. Non sembrano esserci ragioni fisiche che giustifichino il fatto che le lettere UUG (corrispondenti alla sequenza di tre basi di RNA uracile-uracile-guanina) debbano tradursi in una sub-unità proteica di leucina, o che la sequenza UGU debba tradursi in cisteina. In gran parte della fisica non esistono eventi fortuiti che diventano permanenti: fate cristallizzare una massa di rame fuso, e formerà sempre una struttura cubica a facce centrate; i livelli energetici sono gli stessi in tutti gli atomi di idrogeno; il mercurio diventa superconduttore sempre alla stessa temperatura di transizione. Tutti questi-eventi obbediscono a leggi immutabili e possono essere previsti grazie alla meccanica quantistica.

Eppure nel nostro universo ci sono anche molti «accidenti congelati» non biologici. Il Sole, la Terra, la Luna e tutte le montagne del nostro pianeta sono il risultato delle stravaganze della storia. Tuttavia nessuno di questi fenomeni è privo di una spiegazione fisica: conosciamo i meccanismi alla base delle formazione di una stella, di un pianeta e di una montagna, e tuttavia non sappiamo prevedere se tra un miliardo di anni una certa montagna si troverà in un certo posto.

Per la maggior parte degli scienziati i dibattiti filosofici sulla prevalenza dell'olismo o del riduzionismo sono un non-problema. La maggior parte dei fisici sa bene che occorre rimettere insieme tutti i pezzi. Molte proprietà fisiche, come l'elasticità, la conduttività o la trasparenza, nascono «olisticamente» dalle interazioni di grandi quantità di atomi. La meccanica statistica, come abbiamo visto nel terzo capitolo, nacque proprio per spiegare l'emergenza di leggi olistiche dalla visione riduzionista di una nuvola di atomi in moto vorticoso.

La scienza opera a molti livelli. Nel caso di un organismo vivente possiamo cominciare dai quark e dagli elettroni. A partire da qui, in linea di principio, siamo in grado di predire le proprietà dei nuclei e degli atomi. Giunti agli atomi possiamo, in teoria e non senza difficoltà, spiegare le proprietà delle molecole. Già a questo punto, però, la relazione tra il livello dei quark e quello delle molecole è quantomeno debole. È possibile capire molte cose delle molecole attraverso la conoscenza della loro struttura atomica, ma la struttura dei quark è già troppo lontana per darci qualche informazione utile in più sulle proprietà delle molecole. Andando oltre, le relazioni diventano sempre più deboli, fino a perdere qualsiasi connessione concettuale significativa tra un'entità molto complessa e i livelli fondamentali, dominati dalla materia e dall'energia.

Ciò che rende difficile capire la biologia è il fatto che opera su molti di questi livelli: dalle molecole agli ecosistemi. Ogni livello contribuisce alla comprensione della vita, e ognuno ha la sua importanza. Da fisico, ciò che mi affascina di più sono i livelli che legano la vita alla fisica, ma sono consapevole del fatto che non rappresentano che una piccola parte della complessità del vivente.

| << |  <  |  >  | >> |

Pagina 293

Mucche e quark

A questo punto, potreste avere qualcosa da obiettare alla mia affermazione sull'assenza di connessioni concettuali significative tra un'entità complessa e i livelli fondamentali della materia e dell'energia. Ma come sono arrivato a questa conclusione?

Non molto tempo fa mi è capitato di discutere del conflitto tra olismo e riduzionismo con il mio amico e collega Sean Gavin, un fisico teorico nucleare della Wayne State University. Sean mi raccontava di aver assistito a un seminario di Steven Weinberg , un acceso sostenitore della ricerca nel campo della fisica delle particelle. Come tale, Weinberg proponeva il suo classico ragionamento per cui la fisica delle particelle è fondamentale per tutte le altre scienze, comprese la chimica e la biologia. Da fisico, capisco che non ci sia nulla di più fondamentale che scoprire di cosa è fatta la materia e quali forze plasmino il nostro universo; è un lavoro importante, non c'è dubbio. Se vogliamo scoprire la natura del nostro universo - e noi tutti vogliamo che la scienza, a lungo termine, progredisca - dobbiamo unirci a Weinberg e sostenere il lavoro dei fisici delle particelle. Dal recente avvio del più grande acceleratore di particelle esistente, il Large Hadron Collider di Ginevra, in Svizzera, possiamo aspettarci non poche scoperte e sorprese sulla struttura fondamentale della materia. Sean e io - così come quasi tutti i fisici che conosco - non potevamo che essere d'accordo su questo punto. Ma poi Sean disse qualcosa di molto divertente e pertinente: «Ma come puoi predire l'esistenza di una mucca partendo dalla fisica delle particelle?». Gran bella domanda!

Predire l'esistenza delle mucche partendo dalle proprietà di quark ed elettroni è semplicemente troppo complicato, o è fondamentalmente impossibile? Una mucca è formata da molecole (ne abbiamo incontrate molte nel corso del libro) e le molecole sono formate da atomi. Le proprietà delle molecole possono essere ridotte - non senza difficoltà - alle proprietà degli atomi che le compongono. Gli atomi sono formati da elettroni e da quark, i quali, a loro volta, sono tenuti insieme dai gluoni (i quark e i gluoni formano i protoni e i neutroni contenuti nel nucleo). Le proprietà chimiche dei vari tipi di atomi dipendono dalla disposizione degli elettroni intorno al nucleo. Quindi è lecito dire che una mucca può essere spiegata dalla fisica delle particelle, visto che quark ed elettroni (e le forze tra di loro) formano atomi con proprietà diverse, i quali a loro volta formano le molecole che formano le cellule che formano le mucche. A qualche punto del percorso, però, abbiamo perso di vista la ragione per cui esistono le mucche. Dire che una mucca è spiegata dai suoi costituenti è come dire che i mattoni spiegano una casa. È più corretto dire che una mucca è il risultato dell'evoluzione - un processo reso possibile dalla sottostante realtà materiale delle particelle - ma che è fondamentalmente impredicibile. Se dovessimo girare una seconda volta il film della vita ci ritroveremmo ancora con una mucca? Nessuno può dirlo: probabilmente emergerebbe di nuovo qualcosa di simile a una mucca, ma il nuovo arrivato potrebbe avere sei zampe e solo due stomaci. Non esiste una formula basata sulle leggi della fisica delle particelle il cui risultato sia «mucca». La fisica delle particelle sarà anche necessaria per avere una mucca (perché abbiamo bisogno di atomi e di molecole), ma chiaramente non è sufficiente.

Tutti i corpi materiali di questo universo si basano sulla fisica delle particelle a noi nota. Se dovesse esistere un altro universo, però, le leggi cui obbediscono le particelle potrebbero essere piuttosto diverse dalle nostre. Se tali leggi consentono la creazione di strutture complicate, potranno condurre all'emergenza di qualcosa che potremmo chiamare «mucca» a ragion veduta. Il concetto di «mucca» è totalmente indipendente dalle proprietà specifiche dei quark e degli elettroni. Un filosofo direbbe che una mucca non è spiegata dalle particelle perché le particelle non possono fornirci una ragione per la «mucchità» della mucca.

Che dire, allora, della realtà delle macchine molecolari? Analogamente a quanto si è detto per i quark e per gli elettroni, per capire la vita presente sul pianeta dobbiamo prima capire le macchine molecolari. Abbiamo visto, però, che i meccanismi molecolari della maggior parte degli organismi non sono proprietà esclusiva di una pianta o di un animale particolare, quindi non possiamo derivare una mucca o un altro animale neanche dalle macchine molecolari. Questo significa che ciò che abbiamo imparato sulle macchine molecolari è inutile? Le macchine molecolari non ci dicono nulla su un intero organismo vivente? No, le macchine molecolari ci dicono solo come funzionano le cellule. La loro somiglianza in tutte le forme di vita presenti sulla Terra ci parla dell'evoluzione e dell'unità della vita; la loro capacità di domare il caos ci dice che un universo creativo è possibile solo attraverso la combinazione di caso e necessità; la loro capacità di regolare e di essere regolate ci dice che la vita è materia e programma; e la loro attività incessante, animata dalla tempesta molecolare, ci dice che la vita non è un oggetto ma un processo.

Scommetto che in un universo differente tutte queste cose non sarebbero poi così differenti. Dopo tutto, chi mai potrebbe dimostrare che ho torto?

| << |  <  |  >  | >> |

Pagina 296

Epilogo

La vita, l'universo e tutto quanto


Abbiamo fatto tanta strada, dalle forze vitali degli antichi alle molecole dei biologi molecolari e dei biofisici. Se stessimo cercando la «forza della vita», la forza che anima gli esseri viventi, la nostra ricerca avrebbe raggiunto il suo obiettivo. Ma risulta che la forza animatrice è la forza casuale degli atomi, l'eco luminosa e vibrante della creazione dell'universo. Le macchine molecolari, che prendono questa forza caotica e le danno una direzione, incarnano lo stretto legame tra il caso e la necessità e sono esse stesse il frutto di quel legame. Scolpite dall'evoluzione, le macchine molecolari del nostro corpo domano la tempesta molecolare e la trasformano nella danza della vita.

L'universo è figlio del caso e della necessità. Ogni stella, ogni galassia, i pianeti, le montagne, i microbi e gli elefanti sono la prova dell'interazione tra queste due tendenze fondamentali della natura. Dobbiamo accettare che questa visione dell'universo, trasmessa dalla scienza moderna, influenzi l'idea che abbiamo di noi stessi? Da un lato, forse è meglio di no. La vita si articola su molti livelli, dalle collisioni tra gli atomi alla mente di un genio. Le macchine molecolari sono parte di ciò che siamo, ma non determinano ciò che siamo. Siamo esseri creativi, intelligenti, un'estensione naturale della creatività dell'universo, ma non siamo rigidamente determinati dalle leggi di natura. Siamo fondati sulle macchine, ma non siamo macchine.

D'altro canto, grazie alla scienza abbiamo scoperto qualcosa di molto profondo su noi stessi. La vita è un meccanismo molecolare meraviglioso, e questo dovrebbe spingerci ad ammirarla persino nelle sue forme più «primitive». Anche un virus è un miracolo della natura. Gli esseri umani appartengono a quella stessa natura, e forse ne siamo la parte più miracolosa. Siamo tutti uguali, e al tempo stesso siamo tutti molto diversi. La necessità ci lega tutti all'unità della vita; il caso ci rende tutti unici. Era previsto che fossimo qui, in una forma o in un'altra.

Se c'è vita altrove nell'universo, anch'essa si baserà sulle macchine molecolari. Per quello che sappiamo, le leggi fisiche sono le stesse ovunque. In ogni parte dell'universo le nanoscale corrispondono a quel particolare ordine di grandezza che permette di trasformare l'energia con facilità, rendendo possibile la comparsa di nanoscopiche macchine autonome. Persino il più semplice degli organismi viventi è incredibilmente complesso. Per raggiungere tale complessità, l'organismo deve essere composto da un gran numero di componenti che interagiscono tra loro, che devono essere piccole, attive, diversificate e complicate: solo le molecole sono in grado di offrire un profilo del genere.

Per capire il mondo nel suo insieme dobbiamo abbandonare il nostro abituale modo di pensare, lineare e deterministico. La complessità della vita, della nostra mente, della società umana, è frutto dell'aggiunta di un pizzico di casualità alle regole del gioco, un gioco che si svolge su una rete di relazioni complesse ed è ricco di proprietà emergenti. Credo (anche se non saprei come dimostrarlo) che nel nostro vasto e vecchio universo la comparsa della vita fosse inevitabile. Tenete però presente che la vita sulla Terra rappresenta solo una frazione minuscola di tutta la materia dell'universo; anche se in ogni galassia dell'universo ci fossero milioni di mondi disabitati, la quantità totale di materia contenuta in tutti gli esseri viventi continuerebbe a essere una frazione minuscola di tutta la materia esistente.

L'universo non è vittima del secondo principio della termodinamica. Se lo fosse, conterrebbe solo una nebulosa diffusa di idrogeno ed elio. La realtà è diversa. Prima della comparsa della vita, l'azione della gravità concentrò gli atomi, le stelle fabbricarono gli elementi più pesanti e i pianeti offrirono una superficie sulla quale gli atomi poterono concentrarsi ulteriormente, consentendo così la creazione di molecole complesse. L'universo ha 13,7 miliardi di anni. Ha avuto un sacco di tempo e di materia per far apparire la vita da qualche parte. Se consideriamo la tendenza intrinseca della materia a formare strutture sempre più complesse, la vita sembra un fenomeno inevitabile.

Certo, sono in molti a rifiutare le scoperte della scienza moderna. Preferirebbero continuare a considerarsi separati dalla natura, separati dall'universo. In un brano memorabile del saggio Il mio credo, scritto nel 1926, il filosofo Bertrand Russell opponeva a questa visione quella fornita dalla scienza: «Anche se le finestre spalancate della scienza in un primo momento ci fanno rabbrividire, abituati come siamo al confortevole tepore casalingo dei miti tradizionali, alla fine l'aria fresca ci rinvigorirà». Io aggiungerei che non appena cominciamo a scoprire che cos'è la scienza, scopriamo che il brivido è un brivido di eccitazione, per la grandiosità del nostro universo e per la nostra stupefacente capacità di comprenderne un angolino, per ora minuscolo ma in continua espansione.

| << |  <  |  >  | >> |

Pagina 301

Glossario


ACCOPPIAMENTO FORTE L'accoppiamento esatto dell'idrolisi dell'ATP e il moto di un motore molecolare. Implica, normalmente, che per ogni passo fatto dal motore si ha l'idrolisi di un ATP. È tipico dei motori che hanno almeno un elemento sempre attaccato alla rotaia. È l'opposto di accoppiamento debole.

ACCOPPIAMENTO DEBOLE La capacità di un motore molecolare di percorrere una distanza variabile per ogni ATP consumato. Un motore dotato di accoppiamento debole deve staccarsi periodicamente dalla rotaia e muoversi come un cricchetto browniano.

ACTINA Proteina lunga e fibrosa, che fa parte dello «scheletro» della cellula. Funge anche da rotaia per la miosina; nei muscoli, forma le fibre sulle quali esercita la propria trazione la miosina II.

ADP (ADENOSINDIFOSFATO) Prodotto della rimozione di un gruppo fosfato dall'ATP, una molecola utilizzata nelle cellule per trasportare energia chimica. L'ADP è formato da un nucleotide (adenina) cui sono attaccati due gruppi fosfato.

ALLOSTERIA La capacità di alcuni enzimi di cambiare forma e funzionalità in risposta al legame con una molecola di controllo. L'allosteria è alla base della regolazione all'interno della cellula.

AMINOACIDO Costituente elementare di una proteina. Le proteine sono formate dalle combinazioni dei 20 aminoacidi esistenti in natura.

ANFIFILICA Una molecola che presenta proprietà idrofile e idrofobe.

ANIMISMO La credenza che ogni cosa ha un'anima ed è viva.

ATOMI Unità chimiche elementari, composte da un nucleo (formato da protoni e neutroni) e da una nube di elettroni. Gli elettroni sono responsabili dei legami chimici.

ATOMISMO La credenza che ogni cosa è formata da piccole particelle indivisibili e in perpetuo movimento.

ATP (ADENOSINTRIFOSFATO) Molecola utilizzata nelle cellule come vettore di energia chimica. È formata da un nucleotide (adenina) cui sono attaccati tre gruppi fosfato.


[...]


SISTEMA APERTO Sistema capace di scambiare energia, materia o entrambe le cose con l'ambiente; è il contrario di un sistema chiuso.

STATO DI TRANSIZIONE Stato «scomodo» in cui si trovano temporaneamente le molecole che si stanno trasformando da una forma stabile a un'altra. L'energia associata agli stati di transizione è la barriera di attivazione.

TEMPERATURA L'energia cinetica media degli atomi o delle molecole di un sistema in equilibrio.

TEMPESTA MOLECOLARE Moto termico caotico degli atomi e delle molecole.

TEORIA CINETICA Teoria che precorre la meccanica statistica. Consiste nell'applicazione della statistica al moto degli atomi nei gas.

TERMODINAMICA La scienza del calore e dell'energia, del volume, della pressione e della temperatura.

TERMODINAMICA, PRIMO PRINCIPIO DELLA Legge di conservazione dell'energia; include esplicitamente il calore tra le forme di energia.

TERMODINAMICA, SECONDO PRINCIPIO DELLA Legge che afferma che in un sistema chiuso l'entropia non può mai diminuire e che, in generale, tende ad aumentare durante le trasformazioni di energia. Esistono molte altre formulazioni alternative del principio.

TESTA Termine utilizzato per il dominio motore di una proteina motrice; più precisamente, la parte sulla quale si muove la proteina.

TOPOISOMERASI Enzima che taglia e ricuce filamenti di DNA per ridurre la tensione e impedire al DNA di attorcigliarsi durante la replicazione.

TRADUZIONE Trasferimento dell'informazione genetica in una proteina. Avviene nel ribosoma, con l'aiuto dell'RNA transfer (tRNA).

TRASCRIZIONE Il trasferimento dell'informazione dal DNA all'RNA messaggero.

TRASFORMAZIONE ENERGETICA Trasformazione dell'energia da un tipo a un altro, ad esempio da energia chimica a energia cinetica, come avviene in un'automobile.

VESCICOLA Aggregato sferico di lipidi, formato da una sfera a doppia parete che separa una cavità piena d'acqua dall'acqua situata all'esterno della vescicola.

VITALISMO La credenza secondo cui la vita è associata a forze speciali.

| << |  <  |