Autore Ian Stewart
Titolo Le 17 equazioni che hanno cambiato il mondo
EdizioneEinaudi, Torino, 2017, Saggi 965 , pag. 430, ill., cop.rig.sov., dim. 15,5x23,5x3 cm , Isbn 978-88-06-21487-6
OriginaleSeventeen Equations that Changed the World
EdizioneProfile Books, London, 2012
TraduttoreGiorgio P. Panini
LettoreRenato di Stefano, 2017
Classe matematica , fisica , storia della scienza












 

| << |  <  |  >  | >> |

Indice


 XI   Introduzione. Perché tante equazioni?


  3   1. La squaw e l'ippopotamo. Il teorema di Pitagora

 31   2. Abbreviare i procedimenti. I logaritmi

 49   3. Spettri di quantità estinte. Il calcolo infinitesimale

 73   4. Il sistema del mondo. La legge di gravitazione universale di Newton

 99   5. I prodigi di un mondo immaginario. La radice quadrata di meno uno

119   6. Molto rumore per non cambiare nulla. La formula di Eulero per i poliedri

143   7. Caso e fortuna. La distribuzione normale

173   8. Vibrazioni utili. L'equazione delle onde

197   9. Smontare le onde. La trasformata di Fourier

217  10. L'uomo diventa padrone dei cieli. L'equazione di Navier-Stokes

235  11. Onde nell'etere. Le equazioni di Maxwell

255  12. La legge e il disordine. Il secondo principio della termodinamica

281  13. Una sola cosa è assoluta. La relatività

317  14. Lo strano mondo dei quanti. L'equazione di Schrdinger

343  15. Codici, comunicazioni, computer. La teoria dell'informazione

367  16. Lo squilibrio della natura. La teoria del caos

383  17. La formula di re Mida. L'equazione di Black-Scholes


409  E le prossime equazioni?

415  Indice analitico


 

 

| << |  <  |  >  | >> |

Pagina XI

Introduzione

Perché tante equazioni?


Le equazioni sono il fluido vitale, il sangue, della matematica, della scienza e della tecnologia. Se non esistessero le equazioni il nostro mondo non esisterebbe nella sua forma attuale. Le equazioni hanno però una sgradevole reputazione: fanno paura. Gli editori di Stephen Hawking gli avevano detto che ogni equazione inserita nel testo del suo libro Dal big bang ai buchi neri. Breve storia del tempo (1988) avrebbe dimezzato il numero delle copie vendute, ma non tennero poi rigidamente conto del loro consiglio e gli permisero di inserire la famosa E = mc, anche se, tagliandola, si sarebbe venduta una decina di milioni di copie in piú. Sto dalla parte di Hawking. Le equazioni sono troppo importanti per nasconderle. Tuttavia anche gli editori di Hawking avevano ragione: le equazioni sono troppo «serie», hanno un'apparenza «accademica», «formale», sembrano complicate e anche quelli tra noi che amano la matematica possono provare una certa repulsione se sono bombardati da troppe equazioni.

In questo mio libro, posso contare su una scusa. Esso tratta proprio di equazioni, quindi non posso evitare di inserirle, come non potrei evitare di usare la parola «montagna» se scrivessi un libro sull'alpinismo. Mi propongo di convincervi del ruolo essenziale che hanno avuto le equazioni nel formarsi del mondo in cui oggi viviamo, dal disegno delle prime mappe al sistema satellitare globale di navigazione, dalla nascita della musica all'invenzione della televisione, dalla scoperta dell'America all'esplorazione delle lune di Giove. Fortunatamente, non vi serve essere un progettista di razzi spaziali per apprezzare la poesia e la bellezza di un'importante e utile equazione.

Ci sono due tipi di equazioni in matematica che, a prima vista, possono sembrare assai simili. Un tipo indica le relazioni tra varie quantità matematiche: il compito che ci si propone, con queste, è dimostrare che la relazione è vera. L'altro tipo fornisce informazioni su una quantità sconosciuta (incognita, come correntemente si dice: l'aggettivo assume valore di sostantivo); il compito del matematico è in questo caso risolvere l'equazione, trasformando in una quantità nota quella che era incognita. La distinzione non è sempre netta, perché talvolta la stessa equazione può essere usata in entrambi i modi, ma comunque si tratta di un'utile indicazione. Nel libro troverete esempi dei due tipi di equazioni.

Le equazioni presenti nei testi di matematica «pura» sono in generale del primo tipo: esse rivelano l'esistenza di importanti e affascinanti schemi ricorrenti e regolari. Esse sono valide perché, ammesse le nostre ipotesi fondamentali sulla struttura logica della matematica, non possono esistere alternative a quanto le equazioni affermano. Il teorema di Pitagora, la cui equazione è espressa nel linguaggio della geometria, costituisce un esempio. Se si accettano le ipotesi di Euclide per la geometria, il teorema di Pitagora è esatto: «dice» la verità.

Le equazioni usate in matematica e nella fisica matematica sono solitamente del secondo tipo. Esse illustrano, con simboli letterali o numerici, informazioni sul mondo reale e quasi sempre esprimono proprietà dell'universo che, in linea di principio, potrebbero essere state molto diverse. La legge di gravitazione universale di Newton fornisce un buon esempio. Ci indica come la forza di attrazione tra due corpi materiali dipenda dalle loro masse e da quanto è grande la distanza che le separa. Risolvendo le equazioni che risultano da questa legge possiamo dedurre come ruotano i pianeti, seguendo le proprie orbite, intorno al Sole, oppure come si possa progettare l'orbita di una sonda spaziale. Ma la legge di Newton non è un teorema matematico. vera per ragioni dipendenti dalla fisica, cioè perché corrisponde alle osservazioni. La legge di gravità avrebbe potuto essere diversa. Ed effettivamente oggi lo è: la teoria della relatività generale di Einstein integra e «migliora» quella di Newton, specificando piú esattamente alcuni dati osservativi, senza tuttavia rendere incoerenti quelli per cui già sappiamo che la legge newtoniana «funziona».

La direzione seguita dalla storia dell'uomo, nel suo svolgimento, è stata cambiata, piú e piú volte, da un'equazione. Le equazioni sono dotate di poteri nascosti; esse possono svelare i piú intimi segreti della natura. Non è però questo il procedimento tradizionale seguito dagli storici nel presentare organicamente l'ascesa e il declino delle civiltà. Re e regine, guerre e disastri naturali abbondano nei testi di storia, mentre le equazioni compaiono raramente. E la cosa non mi sembra giusta. Nell'era vittoriana, Michael Faraday, durante una riunione della Royal Society di Londra, stava dimostrando ai presenti la connessione tra i fenomeni magnetici e quelli elettrici. A quanto si dice, il primo ministro William Gladstone chiese se questo fatto avrebbe avuto una qualche conseguenza pratica. E la risposta di Faraday (in base a testimonianze la cui attendibilità è davvero molto scarsa; ma perché sciupare un aneddoto simpatico?) sarebbe stata: «Sí, signore, un giorno ci potrete mettere una tassa». Se Faraday ha detto sul serio questa frase, aveva ragione. James Clerk Maxwell riuscí a trasformare le prime osservazioni sperimentali e le leggi empiriche da esse dedotte su magnetismo ed elettricità in un insieme di quattro equazioni che descrivono quantitativamente l'elettromagnetismo. Tra le molte conseguenze di quelle equazioni si contano la radio, il radar e la televisione.

Un'equazione trae la sua forza da un punto di partenza assai semplice. Essa ci dice che due calcoli, che appaiono formalmente differenti, hanno la stessa risposta. Il simbolo chiave che indica questa coincidenza è il segno di uguale: =. Le origini della maggior parte dei simboli usati in matematica si perdono nelle nebbie dell'Antichità, o, al contrario, sono cosí recenti che non si possono avere dubbi sulla loro provenienza. Il segno di uguale è inconsueto perché risale a circa 450 anni fa, e perché non ci limitiamo a conoscere il nome di chi l'ha inventato, ma sappiamo anche perché l'ha fatto. L'inventore è Robert Recorde, che l'ha proposto nel 1557, nel suo The Whetstone of Witte. Recorde ha utilizzato due segmenti paralleli per evitare la noiosa ripetizione della frase «è uguale a»; e ha scelto quel simbolo «perché non ci possono essere due cose piú uguali tra loro». La scelta di Recorde è stata valida. Il suo simbolo è in uso ormai da quattro secoli e mezzo.

Il potere delle equazioni appare evidente se consideriamo le difficoltà che si incontrano nello stabilire, usando i soli strumenti della filosofia, la corrispondenza tra la matematica (un'invenzione creativa della mente dell'uomo) e una realtà fisica esterna. Le equazioni superano tali difficoltà: esse sono in grado di elaborare fondamentali schemi interpretativi per capire il mondo che è fuori di noi. Imparando ad apprezzare il valore delle equazioni e a leggere le storie che esse ci possono raccontare, possiamo scoprire la vitale importanza di alcune caratteristiche presenti in tutto ciò che ci circonda. Teoricamente potrebbero esistere anche altri modi per ottenere lo stesso risultato. Molte persone preferiscono servirsi delle parole invece che dei simboli; anche il linguaggio ci offre infatti il potere di far nostro e dominare (con descrizioni e interpretazioni) quanto esiste intorno a noi. Ma il verdetto espresso dalla scienza e dalla tecnologia su questo strumento è negativo: le parole sono troppo imprecise e troppo limitate per fornirci un percorso valido e sicuro fino alle piú intime caratteristiche della realtà. E sono troppo imbevute dei preconcetti tipici del punto di vista umano. Le parole da sole non possono darci visioni davvero approfondite del mondo reale.

Le equazioni possono farlo. Esse sono state uno dei primi motori della civiltà umana per migliaia di anni. Durante tutto il corso della storia, le equazioni hanno continuato a controllare e orientare il cammino della società umana. Nascoste dietro la scena, senza dubbio, hanno sempre esercitato la loro influenza, non importa se fosse avvertibile oppure non lo fosse. Questa è la storia dell'ascesa dell'umanità, raccontata attraverso la storia di 17 equazioni.

| << |  <  |  >  | >> |

Pagina 3

Capitolo primo

La squaw e l'ippopotamo

Il teorema di Pitagora

Che cosa ci dice?

Qual è la relazione tra le lunghezze dei tre lati di un triangolo rettangolo.


Perché è tanto importante?

Perché ci fornisce un essenziale legame tra la geometria e l'algebra, permettendoci di calcolare ed esprimere le distanze in termini di coppie di coordinate. Ha inoltre fornito i principi della trigonometria e della misurazione delle aree.


A che cosa serve?

Cartografia, calcolo delle rotte di navigazione e, in tempi piú recenti, le teorie della relatività speciale e generale, le piú efficienti teorie che descrivono lo spazio, il tempo e la gravitazione.

| << |  <  |  >  | >> |

Pagina 5

Chiedete a un qualsiasi studente di dire il nome di un famoso matematico e, ammettendo che ne ricordi soltanto uno, l'interrogato di solito sceglierà Pitagora. Se non lo farà, gli verrà di certo in mente Archimede. L'illustre Newton non sarà che al terzo posto, dopo queste due famose stelle del mondo antico. Archimede fu un gigante del lavoro intellettuale, e Pitagora probabilmente non lo fu, ma merita un riconoscimento maggiore di quello che solitamente gli si attribuisce, non tanto per ciò che ha realizzato quanto per il meccanismo che ha messo in moto.

Pitagora è nato all'incirca nel 570 a.C. a Samo, isola greca nella parte orientale dell'Egeo, presso la costa dell'attuale Turchia. Era filosofo e geometra, cioè si interessava di scienze naturali e di misurazioni. Il poco che conosciamo della sua vita ci viene da testi scritti piú tardi, la cui attendibilità, sul piano storico, è discutibile; gli avvenimenti essenziali della sua vita sono però riportati in modo corretto. Verso il 530 a.C. si trasferí a Crotone, colonia greca della costa orientale della Calabria, sullo Ionio. Qui fondò una scuola di carattere filosofico-religioso, da lui detta pitagorica. I pitagorici credevano che elemento fondamentale dell'universo fosse il numero. La fama attuale di Pitagora è legata al teorema cui si associa il suo nome. Ciò che esso afferma è stato insegnato ovunque, nel mondo, da piú di duemila anni e fa parte del sapere comune. In un film del 1958, Il principe del circo, che aveva come protagonista Danny Kaye, una delle canzoni incomincia con questa strofetta che diventa poi il ritornello:

The square on the hypotenuse        Il quadrato dell'ipotenusa
of a right triangle                 d'un triangolo rettangolo
is equal to                         è uguale a
the sum of the squares              la somma dei quadrati
on the two adjacent sides           [costruiti] sui due cateti.

E continua con vari giochi di parole sulla necessità di rispettare la geometria come si rispettano le regole grammaticali (per evitare ad esempio l'ambiguità dei participi), poi associa il famoso teorema a Einstein, a Newton e ai fratelli Wright; ai primi due viene persino attribuita l'esclamazione «Eureka!», che è invece di Archimede. Potete dedurne che le parole delle canzoni di questi film non brillavano per accuratezza nei dati storici ma, che volete?, questa era (ed è) Hollywood! Comunque (vedi cap. XIII) l'autore di questi versi (Johnny Mercer) ha fatto centro, almeno con Einstein, forse piú di quanto fosse in grado di capire.

Il teorema di Pitagora è anche presente in un noto gioco di parole, in inglese, per l'assonanza delle prime parole dell'enunciato, con «the squaw on the hippopotamus». Questa battuta ricorre ovunque in rete, ma è piú difficile di quanto si pensi individuarne la vera fonte. Sul teorema esistono vignette umoristiche d'ogni tipo, ma anche magliette, che ne riportano lo schema, e un francobollo emesso dalla Grecia (fig. 1).

Malgrado tutta questa confusione intorno al teorema, non abbiamo alcuna idea sicura sul fatto che si possa sul serio attribuirne a Pitagora la dimostrazione. In effetti non sappiamo neppure se il teorema sia davvero «suo». Potrebbe benissimo essere stato scoperto da un qualche sottoposto di Pitagora, o da uno scriba babilonese o sumero. Pitagora però ne ha avuto il merito, e l'associazione del suo nome si è consolidata. Qualunque sia la sua origine, il teorema e le conseguenze che ne derivano hanno esercitato un influsso di proporzioni gigantesche sulla storia dell'umanità. Esse hanno letteralmente dato l'avvio al nostro mondo.

| << |  <  |  >  | >> |

Pagina 20

Il teorema, estremamente importante per se stesso e per queste sue piú immediate applicazioni, ha conseguenze d'importanza anche piú grande per varie generalizzazioni. Qui tratterò soltanto di uno dei filoni di questi sviluppi per individuare le connessioni con la teoria della relatività (su cui torneremo nel cap. XIII).

La dimostrazione del teorema di Pitagora data negli Elementi di Euclide pone solidamente questa relazione nell'ambito della «geometria euclidea». Per molto tempo questa affermazione avrebbe potuto contenere la semplice dizione «geometria», perché si assumeva, sistematicamente, che la geometria di Euclide fosse la «vera» geometria dello spazio fisico. Un'assunzione ovvia, scontata. Come la maggior parte delle convinzioni ritenute ovvie, anche questa si è però rivelata falsa.

Euclide aveva dedotto tutti i suoi teoremi da un piccolo numero di assunti, che presentava come assiomi, o postulati: definizioni preliminari e nozioni generali, rispondenti al senso comune. Questo impianto di affermazioni era elegante, intuitivo, conciso, con una sola vistosa eccezione: il quinto assioma. Eccone l'enunciato:

Se una retta taglia altre due rette formando, dallo stesso lato, angoli interni la cui somma è minore di quella di due angoli retti, prolungando indefinitamente le due rette, queste si incontreranno dalla parte in cui la somma dei due angoli è minore di due angoli retti.

Sembra quasi uno scioglilingua, ma il senso di questa proprietà (solitamente detta «postulato delle parallele») si comprende meglio osservando la figura 8.

Per piú di mille anni i matematici hanno tentato di «aggiustare» quello che consideravano come un punto debole di tutta la geometria. Non stavano però cercando di ottenere soltanto la stessa definizione in modo piú semplice e piú intuitivo, anche se qualcuno è riuscito a inventare enunciati soddisfacenti in questo senso. Essi volevano sbarazzarsi una volta per tutte dello scomodo assioma, dandone una dimostrazione ineccepibile. Dopo parecchi secoli, i matematici hanno infine capito che esistevano geometrie alternative «non-euclidee», e implicitamente hanno dedotto che l'assioma era indimostrabile. Queste nuove geometrie erano, sul piano logico, altrettanto coerenti della geometria euclidea, di cui rispettavano tutti gli assiomi, con l'eccezione di quello delle parallele. Esse potevano essere interpretate come geometrie basate sulle geodetiche delle superfici curve. La geodetica è il cammino piú corto che congiunge due punti dati su una certa superficie con la linea piú corta appartenente alla superficie stessa. Il termine «geodesia» (dal greco [...], «divisione della Terra») si applica alla disciplina che tratta della misurazione e della rappresentazione del «geoide» (cioè del solido - non una sfera - che ha la forma del nostro pianeta), ma anche dei fenomeni dinamici, gravitazionali ed elettromagnetici propri della Terra. Le definizioni caratterizzanti le geometrie non-euclidee davano un particolare rilievo al concetto di curvatura delle superfici (vedi fig. 9).

Il piano della geometria euclidea è piatto: ha curvatura nulla (spesso si dice anche «curvatura O»). La superficie di una sfera ha in qualsiasi punto la stessa curvatura, che è, per convenzione, assunta come positiva: ogni punto di essa è circondato da una calotta sferica (una sorta di piccola cupola). subito possibile una constatazione: le circonferenze massime (che hanno lo stesso raggio della sfera stessa) della superficie sferica si intersecano sempre in due punti e non in un solo punto come le rette di un piano secondo l'assioma della geometria euclidea. La geometria sferica presenta dunque un'importante modifica rispetto a quella euclidea perché assume che i due punti d'incontro (che sono antipodali, cioè sono alle estremità di un qualunque diametro della sfera) siano coincidenti. La superficie diventa un piano proiettivo (questa la denominazione adottata) e la geometria relativa è detta ellittica. Esiste anche una superficie di curvatura costante negativa. In ogni suo punto essa appare come una sorta di sella. Su una tale superficie due linee possono non incontrarsi mai. Questa superficie è detta piano iperbolico e può essere rappresentata in vari modi non particolarmente complessi. Il modo piú semplice può forse essere quello di considerarlo come la parte interna di un disco circolare definendo «linea» un arco di cerchio che interseca il bordo del disco stesso secondo due angoli retti (vedi fig. 10).

Può sembrare che, mentre la geometria piana può essere non-euclidea, ciò non sia possibile per la geometria dello spazio. Infatti, se è vero che si può piegare una superficie piana associando a essa una terza dimensione, non è possibile piegare lo spazio tridimensionale, perché non esiste una quarta dimensione lungo la quale si riesca a effettuare tale «piegatura». Va però detto che questa osservazione è un po' semplicistica. Ad esempio, si può usare, come modello tridimensionale approssimato di una superficie iperbolica, la parte rivolta verso l'interno di una superficie sferica. Le linee sono rappresentate da archi di circonferenze che incontrano i confini di tale superficie formando angoli retti e i piani sono parti della superficie sferica delimitati da linee che si incontrano formando angoli retti. Questa geometria è tri-dimensionale: soddisfa tutti gli assiomi di Euclide, con l'eccezione del quinto, e, purché se ne accettino le condizioni, può descrivere uno spazio curvo tri-dimensionale. Non è però «avvolta» intorno a qualcosa, con un certo raggio di curvatura né si deforma in una qualunque nuova direzione.

semplicemente incurvata.

| << |  <  |  >  | >> |

Pagina 99

Capitolo quinto

I prodigi di un mondo immaginario

La radice quadrata di meno uno

Che cosa ci dice?

Anche se dovrebbe essere impossibile, il quadrato del numero i vale meno uno.


Perché è tanto importante?

Perché porta alla costruzione dei numeri complessi, che a loro volta portano all'analisi complessa (teoria delle funzioni di variabili complesse), un'area della matematica dalle piú grandi potenzialità.


A che cosa serve?

A elaborare nuovi metodi per il calcolo delle funzioni trigonometriche. A generalizzare quasi tutte le operazioni della matematica al campo delle funzioni complesse. Consente di elaborare metodologie piú efficienti per lo studio delle onde, della termodinamica, dell'elettrologia, del magnetismo. tra le essenziali basi matematiche della meccanica quantistica.

| << |  <  |  >  | >> |

Pagina 101

L'Italia del Rinascimento è stata un focolaio di spregiudicata politica e di violenze. La parte settentrionale del paese era controllata da una dozzina di bellicose città-stato, tra le quali Milano, Firenze, Pisa, Genova e Venezia. Nella parte centro-meridionale, guelfi e ghibellini erano in conflitto come lo erano il papa e l'imperatore del Sacro Romano Impero, sempre in lotta per la supremazia. Squadre di mercenari giravano nelle campagne, i villaggi venivano devastati, le città armavano navi da guerra per combattere una contro l'altra. Nel 1454 Milano, Napoli e Firenze firmarono la pace di Lodi e, per una quarantina d'anni, si ebbe davvero la pace in gran parte dell'Italia, ma il Papato rimase invischiato nella propria corruzione politica. questa l'era dei Borgia, famigerati per gli avvelenamenti di chiunque ostacolasse la loro sete di conquista del potere politico e religioso. Ma è anche l'epoca di Brunelleschi, Leonardo da Vinci, Piero della Francesca, Tiziano, Tintoretto. Contro uno sfondo di intrighi e uccisioni, qualcuno incominciò a porsi domande su convinzioni e credenze da tempo consolidate. La grande arte e una nuova, grande indagine scientifica fiorirono in simbiosi, ognuna alimentando l'altra.

E fiorí anche la grande matematica. Nel 1545 lo studioso Gerolamo Cardano , appassionato giocatore, mentre stava scrivendo un testo di algebra, Artis magnae sive de regulis algebraicis liber unus, si imbatté in un nuovo tipo di numero, cosí sconcertante da fargli dichiarare che era «tanto astruso quanto inutile» e da ignorare il relativo concetto. Il matematico bolognese Rafael Bombelli, in seguito, studiò a fondo il libro di Cardano, ma ne trovò poco chiara l'esposizione e pensò di poter fare qualcosa di meglio. Nel 1572, infatti, rilevò una proprietà affascinante: per quanto gli stranissimi nuovi numeri non fossero comprensibili nella loro entità, essi potevano essere usati nei calcoli algebrici e portare a risultati che, in base alle dimostrazioni, erano corretti.

Per vari secoli i matematici hanno mantenuto una relazione di amore-odio con questi «numeri immaginari», per usare il termine con cui ancora oggi vengono indicati. Il nome lascia intendere un comportamento ambivalente: non sono numeri reali (quelli che incontriamo abitualmente nei calcoli aritmetici) ma per molti aspetti si comportano nello stesso modo. La principale differenza è data dal fatto che, quando si eleva al quadrato un numero immaginario, si ottiene come risultato un numero negativo. Ma ciò non dovrebbe essere possibile, perché ogni quadrato, ogni potenza di ordine pari ha sempre un valore positivo.

Soltanto nel XVIII secolo i matematici compresero che cosa sono veramente i numeri immaginari, e soltanto nel secolo successivo incominciarono a sentirsi a proprio agio lavorando con queste entità. Tuttavia, già prima che la dignità dei numeri immaginari fosse riconosciuta, sul piano logico, come del tutto comparabile a quella dei piú tradizionali numeri reali, essi erano già diventati indispensabili, in vari campi della matematica e della ricerca scientifica, e la faccenda del loro «significato» sembrava a stento interessare ancora qualcuno. Verso la fine del XIX secolo e agli inizi del XX, il rinnovato interesse per i fondamenti della matematica ha portato a un ripensamento e a una riformulazione del concetto di numero: i numeri tradizionalmente indicati come reali hanno smesso di apparire «piú reali» dei numeri immaginari. A livello di logica, i due tipi di numeri si assomigliavano come Tweedledum e Tweedledee, i gemelli che Alice incontra nel viaggio attraverso lo specchio. Entrambi erano costruzioni della mente umana, entrambi rappresentavano certi aspetti della natura, pur non essendone sinonimi. Essi però rappresentavano la realtà in modi differenti e in contesti diversi.

Nella seconda metà del XX secolo, i numeri immaginari facevano ormai parte, costituendone un settore, della cassetta degli attrezzi mentali di tutti i matematici e di tutti i fisici. Erano integrati nell'edificio della meccanica quantistica in modo cosí fondamentale che occuparsi di fisica senza usarli non era piú possibile di quanto sarebbe stato scalare la parete nord dell'Eiger senza corde, in arrampicata libera. Pur essendo questa la situazione, nelle scuole secondarie raramente si approfondisce lo studio dei numeri immaginari. Le somme in cui compaiono sono abbastanza semplici da eseguire, ma l'acume mentale indispensabile per capire perché valga la pena di studiare i numeri immaginari è ancora troppo grande per una larga maggioranza degli studenti. Ben pochi adulti, anche colti, hanno coscienza della profonda dipendenza della società cui appartengono da numeri che non rappresentano quantità, lunghezze, aree o somme di denaro. Eppure quasi tutti gli strumenti della tecnologia moderna, dall'illuminazione elettrica alle macchine fotografiche digitali, non sarebbero stati inventati senza questi numeri.




Permettetemi di ritornare su una questione d'importanza cruciale e di porre una domanda. Perché i quadrati sono sempre positivi?

Durante il Rinascimento, quando le equazioni erano generalmente rielaborate ordinatamente in modo da avere, in esse, soltanto numeri positivi, la formulazione della domanda non sarebbe stata proprio la stessa. Gli studiosi avrebbero detto che, se si aggiunge un numero a un quadrato, si deve ottenere un numero piú grande: non si può avere zero come risultato. Ma anche se, come facciamo oggi, accettate l'esistenza dei numeri negativi, i quadrati continuano a dover essere positivi. Ed ecco perché.

I numeri reali possono essere positivi o negativi («con il segno meno davanti»). Comunque il quadrato di ogni numero reale, qualunque sia il suo segno, è sempre positivo, quindi entrambi i prodotti 3 3 e (-3) (-3) danno lo stesso risultato: 9. E perciò 9 ha due radici quadrate: 3 e -3.

Che cosa possiamo dire di -9? Quali sono le sue radici quadrate?

Non ne ha nessuna.

[...]


Cardano è noto come lo scienziato-giocatore perché entrambe le attività hanno avuto un ruolo importante nella sua vita. Era un genio ma anche un avventuriero. La sua vita è costituita da una serie di alti davvero eccelsi e bassi decisamente infimi. Sua madre cercò di abortire prima che Gerolamo, figlio illegittimo, nascesse; suo figlio Giambattista fu decapitato per aver ucciso la propria moglie; la fortuna di famiglia fu persa al gioco da Gerolamo. Fu accusato di eresia per aver redatto l'oroscopo di Gesú, ma fu anche insegnante di medicina nell'Università di Pavia e venne eletto nel Collegio dei medici di Milano; guadagnò quasi duemila monete d'oro per aver curato l'asma e l'afasia dell'arcivescovo scozzese di St Andrews e ottenne una pensione da Gregorio XIII. Inventò la sospensione cardanica che, costituita da tre cerchi metallici, permette a un giroscopio di mantenere costante l'orientamento del suo asse di rotazione, e scrisse un gran numero di libri, tra cui De Propria Vita, una straordinaria, lucidissima autobiografia. Il libro piú importante per la nostra storia è l' Ars Magna (1545): la «grande arte» è l'algebra. Nel testo, Cardano raccoglie le idee piú avanzate del suo tempo sull'algebra, tra cui nuovi e quasi sconcertanti metodi per risolvere le equazioni, alcuni inventati dai suoi allievi, talvolta ottenuti da altri in circostanze non del tutto chiare.

L'algebra, intesa come parte della matematica appresa a scuola, è caratterizzata dall'impiego di simboli per rappresentare i numeri. I suoi inizi risalgono al matematico greco alessandrino Diofanto , vissuto intorno al 250 d.C.; nella sua Arithmetica si serviva di segni simbolici per descrivere i procedimenti con cui risolvere le equazioni. La maggior parte del lavoro era costituita da quesiti esposti a parole (ad esempio: «Trovare due numeri la cui somma sia 10 e il cui prodotto sia 24»), ma Diofanto indicava sommariamente le operazioni che usava per ottenere la soluzione (nell'esempio: 4 e 6) con simboli. I simboli (vedi tab. I) erano diversi da quelli che usiamo oggi: per lo piú consistevano di abbreviazioni delle parole, ma si trattava di un notevole inizio. Cardano utilizzava prevalentemente delle parole ( positio o res per l'incognita; quadratum per la potenza 2), spesso abbreviandole insieme a qualche simbolo per indicare le radici, ma anche in questo caso i simboli hanno ben poco in comune con quelli oggi in uso. Piú tardi, gli autori si sono avvicinati, quasi per caso, alle convenzioni della notazione attuale, gran parte della quale è stata standardizzata da Eulero nei suoi numerosi manuali. Gauss, tuttavia, ancora nella prima metà del XIX secolo usava la notazione xx al posto di x.

Gli argomenti piú importanti trattati nell' Ars Magna erano i nuovi metodi per risolvere equazioni cubiche o quartiche (comprendenti quadrati di quadrati). Si tratta di equazioni simili alle quadratiche (indicate correntemente anche come equazioni di secondo grado) in cui la maggior parte di noi si imbatte nell'algebra che si studia a scuola, ma piú complesse.

[...]

Il capolavoro di Gerolamo Cardano fornisce i metodi per risolvere le equazioni cubiche, o di terzo grado, nelle quali, oltre a x e x, compare anche x, cioè la potenza 3, il cubo, e le equazioni quartiche, nelle quali l'incognita compare anche alla potenza 4, x^4. L'algebra si complica notevolmente; anche utilizzando la simbologia moderna, dobbiamo riempire di numeri e simboli un'intera pagina, o due, per ottenere le soluzioni esatte. Cardano non si è spinto a trattare le equazioni quintiche in cui compare la potenza x^5 dell'incognita, perché non sapeva come risolverle. Molto piú tardi si è potuto dimostrare che non esistono procedimenti di risoluzione (almeno del tipo che Cardano avrebbe desiderato) per simili equazioni: per quanto sia possibile calcolare con molta precisione soluzioni numeriche di qualunque caso particolare di equazione, non esiste una formula risolutiva generale applicabile a questi casi, a meno di non inventare nuovi simboli specifici per tale impresa.

Sto per scrivere alcune formule algebriche perché ritengo che cosí l'argomento diventi piú comprensibile di quanto lo sarebbe evitando di proporre esempi. Non è necessario, per voi lettori, entrare nei dettagli, ma mi piacerebbe farvi vedere a che cosa assomigliano tutte queste formule. Usando i simbolismi moderni possiamo scrivere la soluzione illustrata da Cardano per l'equazione cubica in un caso speciale: quando la sua forma è x + ax + b = 0, con a e b che rappresentano particolari numeri. (Se tra i termini compare esplicitamente x, un brillante espediente permette di sbarazzarsene; dunque la formulazione che ho scritto può rappresentare ogni caso possibile). La formula risolutiva è:

Può sembrare che si tratti di una manciata di termini incomprensibili ma questo insieme di frazioni e radici è assai piú semplice di molte altre formule algebriche. E ci indica come dedurre il valore dell'incognita x, calcolando il quadrato di b e il cubo di a, sommando tra loro alcune frazioni, ed estraendo una coppia di radici quadrate (simbolo √) e una coppia di radici cubiche (simbolo √ con 3 esponente). La radice cubica di un numero è la quantità che dovete elevare alla potenza 3 per ottenere il numero.

Nella scoperta della formula risolutiva delle equazioni cubiche sono stati coinvolti almeno tre altri matematici, uno dei quali si lamentò aspramente con Cardano perché questi aveva promesso di non rivelare il segreto da lui scoperto. Per quanto interessante e curiosa, la storia è troppo intricata per essere esposta qui dettagliatamente, interrompendo la nostra narrazione. La soluzione dell'equazione quartica è stata scoperta da Lodovico Ferrari, allievo di Cardano. Vi risparmierò anche la formula relativa, piú complessa di quella della cubica.

I risultati illustrati nell' Ars Magna costituirono, in questo settore, un vero trionfo, il punto culminante di una storia che si è dipanata nel corso dei millenni. I babilonesi sapevano già risolvere le equazioni di secondo grado intorno al 1500 a.C., e forse prima. I matematici greci e Omar Khayyam, matematico e poeta persiano, conoscevano metodi geometrici per risolvere le equazioni di terzo grado; tuttavia le soluzioni algebriche delle equazioni cubiche, senza contare quella delle quartiche, non avevano precedenti. La matematica, in un colpo solo, prendeva le distanze dalle sue origini classiche.

Rimaneva però un minuscolo inconveniente. Cardano se ne era accorto, e vari altri studiosi cercarono di darne una spiegazione.

| << |  <  |  >  | >> |

Pagina 119

Capitolo sesto

Molto rumore per non cambiare nulla

La formula di Eulero per i poliedri

Che cosa ci dice?

In un poliedro regolare il numero delle facce, quello degli spigoli e quello dei vertici non sono indipendenti tra loro ma legati da una semplice relazione.


Perché è tanto importante?

Perché ci permette di distinguere tra i vari solidi con caratteristiche topologiche diverse, in base al primo esempio di invariante topologico. La sua definizione ha aperto la strada a tutta una serie di tecniche, piú potenti e di carattere piú generale, che hanno portato alla nascita di un nuovo ramo della matematica.


A che cosa serve?

A costruire una delle piú importanti aree della matematica, dotata di grandi potenzialità: la topologia, che studia le proprietà geometriche invariabili per le deformazioni continue. Tra le strutture a cui si applica: le superfici, i nodi, gli intrecci di nodi. Molte delle applicazioni sono indirette, ma la dipendenza da questa teoria, dietro le quinte, è di vitale importanza. Essa ci aiuta a comprendere come gli enzimi agiscono sul dna in una cellula e come il moto dei corpi celesti possa essere caotico.

| << |  <  |  >  | >> |

Pagina 121

Verso la fine del XIX secolo, i matematici incominciarono a costruire un nuovo tipo di geometria: in essa, entità e concetti abituali - come lunghezze e angoli - non avevano piú alcuna importanza e non esisteva piú una distinzione fra triangoli, quadrati o circonferenze. Nelle prime fasi questo nuovo settore è stato denominato Analysis Situs (studio analitico di un dato luogo), ma presto i matematici hanno scelto e stabilito un altro nome: topologia.

La topologia (dal greco [...], «luogo», e [...], «studio») ha le sue origini in un curioso schema ricorrente individuato da Cartesio nel 1639, mentre studiava i cinque solidi regolari definiti da Euclide (tetraedro, cubo, ottaedro, dodecaedro, icosaedro).

La fama di Cartesio, che visse per molti anni nei Paesi Bassi, è soprattutto legata alla sua filosofia, la cui influenza sulla storia del pensiero nel mondo occidentale è stata tale che a lungo i filosofi si sono, per la maggior parte, occupati di rispondere ai problemi posti da lui. Non sempre in accordo con le sue affermazioni, si deve ammetterlo, ma con ragionamenti comunque motivati dalle sue argomentazioni. La sua affermazione Cogito ergo sum è diventata un elemento fondamentale nel mondo della cultura. Ma gli interessi di Cartesio si estendevano oltre i confini della filosofia, anche nel campo delle scienze e della matematica.

Nel 1639 concentrò la sua attenzione sui solidi regolari e notò una curiosa regolarità nelle loro caratteristiche. Un cubo ha 6 facce, 12 spigoli, 8 vertici; la somma dei tre numeri 6 - 12 + 8 è uguale a 2. Un dodecaedro ha 12 facce, 30 spigoli, 20 vertici; il totale: 12 - 30 + 20 = 2. Un icosaedro ha 20 facce, 30 spigoli, 12 vertici; il totale: 20 - 30 + 12 = 2. Il risultato rimane lo stesso anche per il tetraedro (4 - 6 + 4) e l'ottaedro (8 - 12 + 6). In effetti la proprietà vale per ogni solido, di qualunque forma, regolare o irregolare. Se il solido ha F facce, S spigoli, V vertici, vale la relazione F - S + V = 2. Cartesio vide, in questa relazione, una curiosità di scarso interesse e non ne fece oggetto di pubblicazione. Soltanto molto dopo i matematici hanno capito che questa piccola equazione è uno dei primi passi, ancora incerto, nella storia di un trionfale successo della matematica del XX secolo: l'inarrestabile affermazione della topologia. Nel XIX secolo, i tre pilastri della matematica pura erano l'algebra, l'analisi infinitesimale e la geometria; alla fine del XX, erano l'algebra, l'analisi infinitesimale e la topologia.

La topologia è spesso definita come «geometria del foglio di gomma» perché si tratta di una sorta di geometria adatta a descrivere figure tracciate su un piano deformabile, elastico, in modo che le rette possano incurvarsi, allungarsi o accorciarsi e le circonferenze possano trasformarsi in triangoli o quadrati. Il solo requisito essenziale è la continuità: non è permesso «strappare» il foglio in due o piú parti. Può sembrare curioso che una elaborazione tanto bizzarra abbia una qualche importanza, ma la continuità è uno degli aspetti essenziali del mondo naturale e una caratteristica fondamentale della matematica. Oggi la topologia è utilizzata quasi sempre in modo indiretto, come una delle tante tecniche matematiche. Non trovate nulla che sia evidentemente e inequivocabilmente topologico nella vostra cucina. Tuttavia un'azienda giapponese ha realizzato una lavastoviglie «caotica» (con getti d'acqua che assumono direzioni sempre diverse) che, a detta degli esperti delle vendite, lava i piatti piú efficacemente, e le nostre conoscenze dei fenomeni caotici si basano sulla topologia. Lo stesso accade per molti importanti concetti della teoria quantistica dei campi e per la struttura dell'emblematica molecola del dna. Quando Cartesio contava le caratteristiche salienti dei solidi regolari e notava che non erano indipendenti una dall'altra, tutto questo apparteneva al futuro.

Sarebbe toccato all'infaticabile Eulero, il piú prolifico matematico della storia, provare l'esistenza di questa relazione e darne notizia in una pubblicazione, nel 1750 e nel 1751. Ne abbozzerò una versione moderna. L'espressione F - S + V può apparire arbitraria, ma in realtà è una struttura molto interessante. Le facce (F) sono poligoni, a due dimensioni; gli spigoli (S) sono linee rette, a una dimensione; i vertici (V) sono punti, e hanno dimensione O. I segni che compaiono nell'espressione si alternano + - +: il segno + è associato a numeri pari delle dimensioni, mentre il segno - è associato alla dimensione dispari. Ne consegue che si può semplificare un solido fondendo tra loro alcune facce, o eliminando spigoli e vertici, senza che tali cambiamenti alterino il numero F - S + V, purché ogni volta che si elimina una faccia si rimuova anche uno spigolo, oppure che, se si elimina un vertice, si rimuova anche uno spigolo. I segni alterni fanno sí che questi cambiamenti si eliminino a vicenda.

Ora spiegherò come l'ingegnosa struttura della formula la renda funzionale. La figura 21 presenta le fasi principali dell'operazione. Prendete il vostro solido. Deformatelo in modo che diventi una bella sfera rotonda: gli spigoli sono tutti diventati segmenti di curve appartenenti alla superficie della sfera. In generale, se due facce del solido si incontrano lungo uno spigolo comune, potrete eliminare questo spigolo e fondere le due facce in una. Poiché questa fusione diminuisce entrambi i numeri F e S di 1, F - S + V non cambia. Continuate l'operazione fino a ottenere una sola faccia che ricopra quasi tutta la sfera. Contigui a questa faccia vi rimangono soltanto spigoli e vertici: essi devono formare una sorta di albero, una rete senza alcuna maglia chiusa, perché su una superficie sferica ogni linea chiusa può separare al massimo due facce: una al suo interno e l'altra, piú vasta, al suo esterno. I rami di questo albero sono gli spigoli restanti del poliedro da cui siete partiti e si uniscono tra loro in corrispondenza dei restanti vertici. A questo punto rimane una sola faccia: l'intera superficie sferica, oltre alla ramificazione dei vertici. Alcuni rami si connettono ad altri rami alle due estremità, ma alcuni terminano in un vertice al quale non si connette nessun altro ramo. Se eliminate uno di questi rami insieme a tale vertice, l'albero si fa via via piú piccolo ma, dato che spigoli e vertici diminuiscono ogni volta di uno, la relazione F - S + V rimane ancora e sempre invariata.

Il processo può proseguire fino a quando rimarrete con un unico vertice che giace sulla superficie sferica priva di qualsiasi altra caratteristica. Ora V = 1, S = 0 e F = 1. Quindi: F - S + V = 1 - 0 + 1 = 2. Considerando che ogni fase lascia invariata la relazione F - S + V, il valore deve essere stato 2 anche all'inizio. Ed è questo che volevamo dimostrare.

| << |  <  |  >  | >> |

Pagina 235

Capitolo undicesimo

Onde nell'etere

Le equazioni di Maxwell

Che cosa ci dicono?

L'elettricità e il magnetismo non si limitano a scorrere. Una regione in cui un campo elettrico ruota su se stesso dà origine a una regione in cui un campo magnetico ruota su se stesso mantenendosi sempre perpendicolare al primo. Una regione in cui un campo magnetico ruota su se stesso dà origine a una regione in cui un campo elettrico ruota su se stesso mantenendosi sempre perpendicolare al primo, ma nel verso opposto.


Perché sono importanti?

Costituiscono la prima importante unificazione delle forze naturali perché dimostrano l'intima interrelazione tra elettricità e magnetismo.


A che cosa conducono?

A prevedere l'esistenza delle onde elettromagnetiche, che si spostano alla velocità della luce, la quale è essa stessa un'onda elettromagnetica. Questa scoperta ha reso possibile l'invenzione delle radiocomunicazioni, del radar, della televisione, delle trasmissioni senza fili tra computer e tra i relativi componenti o accessori, e della maggior parte dei moderni mezzi di comunicazione.

| << |  <  |  >  | >> |

Pagina 237

All'inizio del XIX secolo, la maggioranza delle persone illuminava la propria abitazione utilizzando candele o lampade a petrolio. L'illuminazione a gas, che risale all'ultimo decennio del XVIII secolo, è stata utilizzata in seguito, soprattutto in complessi industriali o commerciali, ma raramente nelle abitazioni e negli uffici. L'illuminazione stradale a gas fu adottata, a Parigi, nel 1820. In quel periodo il modo usuale per inviare messaggi consisteva nello scrivere una lettera e spedirla con un veicolo trainato da cavalli; per i messaggi urgenti si usavano ugualmente cavalli, ma senza il veicolo. L'alternativa piú importante, principalmente limitata alle comunicazioni ufficiali o militari, era rappresentata dal telegrafo ottico. Il sistema utilizzava semafori: apparati meccanici, installati su torri, i quali potevano rappresentare lettere e parole in codice disponendo opportunamente bracci rigidi secondo vari angoli: queste configurazioni potevano essere viste attraverso telescopi e trasmesse, ripetendole, a una successiva torre di un percorso preordinato. Il primo sistema di questo tipo, usato su vasta scala, risale al 1792, anno in cui l'inventore francese Claude Chappe fece realizzare una rete di quasi 5000 km con 556 torri che copriva gran parte della Francia. Tale sistema di telecomunicazioni rimase in uso per sessant'anni.

Nel giro di un centinaio d'anni, le case e le strade hanno avuto l'illuminazione elettrica, si è affermato il telegrafo elettrico, successivamente abbandonato, e la gente ha potuto comunicare attraverso il telefono. I fisici avevano dato dimostrazioni, nei laboratori, di possibili comunicazioni via radio, e un industriale era già riuscito a impiantare un'industria in grado di vendere al pubblico apparecchi «senza fili» (cioè radioricevitori). A due studiosi si devono le principali scoperte che hanno dato il via a questa rivoluzione sociale e tecnologica. Uno, l'inglese Michael Faraday , individuò i fondamentali principi fisici dell'elettromagnetismo, consistenti nella combinazione che intreccia strettamente i fenomeni, prima considerati separati, elettrici e magnetici. L'altro, scozzese, James Clerk Maxwell , che trasformò le teorie meccanicistiche di Faraday in equazioni matematiche e le ha usate per ipotizzare l'esistenza delle onde radio che si muovono alla velocità della luce.




La Royal Institution of Great Britain (Londra) ha come sede un edificio imponente con classiche colonne sulla facciata, ma quasi nascosto in una strada laterale non lontana da Piccadilly Circus. Oggi, la principale attività dell'organizzazione consiste nell'allestire eventi scientifici interessanti per un vasto pubblico, ma quando venne fondata (1799), tra i suoi scopi erano indicati: «... diffondere il sapere e facilitare la presentazione al pubblico di utili invenzioni meccaniche». Quando John Fuller, detto «Mad (il folle) Jack», istituí una cattedra di Chimica presso la Royal Institution, il primo titolare del corso non fu un accademico. Era il figlio di un maniscalco dalla salute malferma che aveva lavorato come fattorino presso un libraio diventando poi apprendista rilegatore. Una situazione che gli aveva permesso di leggere molto, quasi voracemente, malgrado la scarsa disponibilità di mezzi della famiglia, e le Conversations on Chemistry di Jane Marcet e The Improvement of the Mind di Isaac Watts avevano suscitato in lui un profondo interesse per la scienza in generale e per l'elettricità in particolare.

Il giovane era Michael Faraday: aveva seguito le lezioni tenute presso la Royal Institution dall'illustre chimico Humphry Davy, e gli aveva inviato trecento pagine di commenti e note sui temi trattati. Poco piú tardi, un incidente di laboratorio danneggiò la vista di Davy che chiese a Faraday di diventare suo segretario. Quando un assistente della Royal Institution venne licenziato, Davy suggerí di sostituirlo con Faraday, assegnandogli il compito di lavorare sulla chimica del cloro.

L'istituzione concesse però a Faraday di continuare a seguire anche i suoi personali interessi: ciò lo portò a condurre innumerevoli esperimenti relativi al tema, da poco scoperto, dell'elettricità. Nel 1821, Faraday fu informato dei lavori dello studioso danese Hans Christian Orsted, che stabilivano un legame tra l'elettricità e i fenomeni, da tempo conosciuti, del magnetismo: egli riuscí a sfruttare tale legame per inventare il motore elettrico, ma Davy se ne risenti perché non gli era stato riconosciuto alcun merito, e impose a Faraday di lavorare su altri progetti. Davy morí nel 1831; due anni dopo, Faraday condusse una serie di esperimenti sull'elettricità e il magnetismo che convalidarono la sua fama di uno dei maggiori scienziati di tutti i tempi. Le sue indagini ad ampio raggio erano in parte motivate dalla necessità di poter presentare moltissimi nuovi esperimenti per istruire la gente comune e divertire grandi e piccoli, allo scopo di realizzare il programma della Royal Institution, inteso a stimolare in tutti la comprensione dei fenomeni scientifici.

Tra le sue invenzioni si contano vari metodi per convertire i fenomeni elettrici in magnetici e trasformarli entrambi in moto (con il motore elettrico) e, ancora, per trasformare il moto in elettricità (con il generatore elettrico). Queste applicazioni sfruttavano la sua scoperta piú grande: l'induzione elettromagnetica. Se un oggetto materiale che conduce l'elettricità si muove in un campo magnetico, nel materiale fluisce una corrente elettrica. Faraday scoprí il fenomeno nel 1831. Francesco Zantedeschi, sacerdote, ricercatore e docente italiano, aveva già rilevato i fenomeni in questione nel 1829 e anche lo statunitense Joseph Henry li aveva osservati un po' piú tardi. Henry, però, non si era affrettato a render pubblica la sua scoperta e Faraday aveva sviluppato l'idea ben oltre quanto l'avesse fatto Zantedeschi. Il suo lavoro si era spinto anche oltre il programma della Royal Institution di favorire le invenzioni utilizzabili praticamente nel campo della meccanica, perché aveva realizzato macchine in cui si utilizzavano proprietà che allora erano alle frontiere della fisica. Il processo ha portato, quasi direttamente, alla scoperta dell'energia elettrica come fonte di lavoro utile; all'illuminazione elettrica, e alla costruzione di migliaia di nuovi aggeggi. Quando altri hanno raccolto il testimone, l'intera panoplia degli apparecchi elettrici ed elettronici moderni ha fatto la sua comparsa sulla scena, a partire dalla radio per passare alla televisione, al radar e alle telecomunicazioni a grande distanza. Ed è stato Faraday, piú di qualunque altro singolo scopritore, a far nascere il mondo moderno delle tecnologie, con l'aiuto delle essenziali nuove idee di centinaia di abili tecnologi, ricercatori, studiosi, e uomini d'affari.

Per la sua provenienza dalla classe operaia e la mancanza della normale educazione d'un gentiluomo, Faraday imparò da solo i principi della scienza, ma non la matematica. Riuscí comunque a elaborare le proprie teorie per spiegare i risultati dei suoi esperimenti e per condurli a buon fine, ma esse erano basate su analogie meccaniche e su «meccanismi» concettuali, non su formule ed equazioni. Il suo lavoro trovò il posto che merita nei fondamenti della fisica grazie all'intervento di una delle piú grandi menti scientifiche della Scozia, James Clerk Maxwell.

| << |  <  |  >  | >> |

Pagina 245

In sintesi: il campo elettrico è rappresentato da un insieme di vettori, ognuno corrispondente a un punto dello spazio. Ogni vettore specifica l'intensità, la direzione e il verso della forza elettrica (esercitata su una minuscola particella dotata di carica elettrica, che utilizziamo come «sonda» per la misurazione) in quel punto. I matematici attribuiscono a una tale struttura il nome di campo vettoriale: esso opera come una funzione che fa corrispondere a ogni punto nello spazio il vettore corrispondente. In modo simile il campo magnetico è determinato dalle linee di forza dovute al magnetismo: si tratta di un campo vettoriale che dovrebbe corrispondere alle forze esercitate su una minuscola particella magnetica, usata come sonda.

Avendo chiarito che cosa erano i campi magnetici ed elettrici, Maxwell poteva elaborare le equazioni in grado di descrivere che cosa i campi riuscivano a fare. Noi oggi ci serviamo, in queste equazioni, di due operatori vettoriali detti divergenza e rotore (quest'ultimo indicato anche come rotovettore). Maxwell utilizzava formule piú precise esplicitando le tre componenti dei campi elettrici e magnetici. Nel caso speciale in cui non si abbiano cavi elettrici conduttori o piastre metalliche, né magneti e tutti i fenomeni avvengono nel vuoto, le equazioni assumono una forma leggermente piú semplice e limiterò la mia descrizione a questa situazione particolare.

Due delle equazioni ci dicono che i campi sono incompressibili, cioè che elettricità e magnetismo non possono semplicemente annullarsi: devono spostarsi, trasferirsi. Questa caratteristica viene espressa con l'affermazione: la divergenza del campo è nulla; essa porta alle due equazioni

∇ E = 0         ∇ H = 0

in cui il triangolo capovolto seguito da un punto costituisce il simbolo della divergenza. I simboli letterali E, H, del campo elettrico e del campo magnetico sono scritti, convenzionalmente, in grassetto per indicare che si tratta di vettori (vedi anche cap. X). Altre due equazioni ci dicono che quando una parte di un campo elettrico ruota su se stessa seguendo una piccola circonferenza essa dà origine a un campo magnetico orientato in modo da essere sempre perpendicolare al piano della circonferenza e che, similmente, quando una parte di un campo magnetico ruota su se stessa, essa dà origine a un campo elettrico orientato in modo da essere perpendicolare al piano in cui avviene la rotazione. Esiste una curiosa reciprocità: i campi elettrico e magnetico hanno versi opposti rispetto a un dato verso della rotazione che li genera. Tali equazioni (la terza e la quarta delle quattro) sono

∇ x E = - (1/c) (∂H/∂t)         ∇ x H = (1/c) (∂E/∂t)

nelle quali il triangolo capovolto seguito da un segno di moltiplicazione (x) costituisce il simbolo dell'operatore vettoriale rotore; E è il campo elettrico; H il campo magnetico; t è simbolo dell'intervallo di tempo e ∂/∂t indica, come derivata parziale, il tasso di cambiamento dei due campi in relazione al tempo. Va notato che il secondo membro della terza equazione ha un segno - che non c'è nella quarta: questa particolarità corrisponde alla reciprocità dell'orientamento dei campi che ho già menzionato.

Che cosa rappresenta c? Si tratta di una costante, che è il rapporto tra le unità di misura elettrodinamiche ed elettrostatiche. Sperimentalmente è risultato che questo rapporto ha le dimensioni fisiche di una velocità e un valore lievemente inferiore a 300 000 km/s. Maxwell riconobbe immediatamente il numero: si tratta della velocità della luce nel vuoto. Perché, nelle equazioni, compare questa grandezza? Maxwell decise di indagare: un indizio, che si poteva far risalire a Newton ed era stato sviluppato poi da altri, veniva dalla scoperta della natura della luce: si trattava di una sorta di onda. Ma nessuno sapeva «che cosa» costituisse questa onda.




Un semplice calcolo ha fornito la risposta. Se si conoscono le equazioni dell'eletromagnetismo, utilizzandole in modo appropriato, si può prevedere come si modifichino i campi elettrico e magnetico in circostanze diverse. E si possono anche dedurre conseguenze generali, a livello matematico. Ad esempio, la seconda coppia di equazione mette in relazione il campo elettrico E con il campo magnetico H; qualunque matematico potrà subito tentare di dedurne equazioni che contengono soltanto E e soltanto H, perché una tale operazione ci permette di concentrarci separatamente su ognuno dei due campi. Tenendo conto delle sue conseguenze, a dir poco epiche, ci appare quasi assurdo che questo compito sia tanto semplice, se si ha qualche familiarità con il calcolo vettoriale. Ho inserito, a fine capitolo, il calcolo con tutti i passaggi: qui ne do una rapida sintesi. A naso, possiamo incominciare con la terza equazione, che mette in relazione il rotore del campo elettrico E con la derivata rispetto al tempo del campo magnetico H. Non disponiamo di nessun'altra equazione in cui compaia la derivata rispetto al tempo di H, ma ne abbiamo una in cui è presente il rotore di H: la quarta. Questo ci suggerisce di lavorare sulla terza equazione e di calcolare il rotore di entrambi i membri. Sostituiamo il valore dato dalla quarta equazione, moltiplichiamo i due membri per c, semplifichiamo, ed ecco, otteniamo

∂E/∂t = c ∇ E

che è l'equazione d'onda!

Lo stesso giochetto si può ripetere con il rotore di H e dà, come risultato, la stessa equazione, con H al posto di E. (Il segno - viene moltiplicato per se stesso, quindi scompare). Ne consegue che entrambi i campi, elettrico e magnetico, nel vuoto, corrispondono a equazioni d'onda formalmente uguali. Poiché la stessa costante c compare in ciascuna equazione d'onda, entrambi i campi si propagano con la stessa velocità, appunto c. Questa piccola serie di calcoli ci fa presumere che il campo elettrico e il campo magnetico possano entrambi simultaneamente generare e mantenere un'onda, dando origine a un'onda elettromagnetica, in cui i due campi variano ognuno in accordo con l'altro. E la velocità di tale onda è la velocità della luce.

Ma ecco un altro giochetto, con la sua implicita domanda. Che cosa si sposta alla velocità della luce? Ora la risposta è quella che ci si può aspettare: la luce. Ma ecco emergere un'implicazione di importanza capitale: la luce è un'onda elettromagnetica.

| << |  <  |  >  | >> |

Pagina 253

Lo spettro elettromagnetico è tanto versatile e tanto efficiente nelle prestazioni che la sua presenza si avverte praticamente in tutte le sfere dell'attività umana. Rende possibili realizzazioni che a ogni altra generazione sarebbero apparse miracolose. stato compito di un gran numero di persone, qualunque fosse la loro professione, trasformare le possibilità intrinseche delle equazioni matematiche in oggetti reali e strutture commerciali. Ma nessuna di queste trasformazioni era possibile prima che qualcuno capisse come l'elettricità e il magnetismo potessero mettere insieme le loro forze per dar origine a un'onda. Come già detto, tutta la panoplia dei moderni sistemi di comunicazione - dalla radio alla televisione, al radar alle «reti di copertura» a microonde dei telefoni portatili - è diventata, da quel momento, inevitabile. E tutto ciò è scaturito da quattro equazioni e da un paio di righe di semplici calcoli vettoriali.

Le equazioni di Maxwell non hanno soltanto cambiato il mondo. Ne hanno inaugurato uno nuovo.

| << |  <  |  >  | >> |

Pagina 342

Capitolo quindicesimo

Codici, comunicazioni, computer

La teoria dell'informazione

Che cosa ci dice?

Specifica la quantità di informazione contenuta in un messaggio espressa nei termini della probabilità con cui possono presentarsi i simboli che la costituiscono.


Perché è tanto importante?

l'equazione che ha accompagnato lo sviluppo dell'età dell'informazione. Fissa i limiti dell'efficienza di un sistema di comunicazioni, consentendo ai tecnici di non ricercare codici troppo efficaci, che non potrebbero esistere. alla base di tutti gli attuali mezzi di comunicazione digitali: telefoni, cd, dvd, internet.


Quali sono stati i suoi risultati?

La scoperta di codici efficienti per individuare gli errori e correggerli che vengono usati in moltissimi apparati e strumenti, dai cd alle sonde spaziali. Tra le applicazioni si contano l'elaborazione di statistiche, l'intelligenza artificiale, la crittografia e la decifrazione delle sequenze del dna.

| << |  <  |  >  | >> |

Pagina 345

Nel 1977 la Nasa ha lanciato due sonde spaziali, il Voyager 1 e il Voyager 2. I pianeti del Sistema solare si trovavano in posizioni insolitamente favorevoli, che permettevano di calcolare orbite lungo le quali le sonde avrebbero potuto avvicinarsi con soddisfacente efficienza a vari pianeti. Inizialmente l'obiettivo della missione era un esame di Giove e di Saturno ma, se gli apparecchi avessero continuato a funzionare, le loro orbite li avrebbero portati a superare Urano e Nettuno. Il Voyager 1 avrebbe potuto raggiungere Plutone (allora ancora considerato un pianeta, e comunque interessante anche oggi che non ha piú tale qualifica, essendo diventato un «pianeta nano»: di certo non è affatto cambiato fisicamente) ma si era data la precedenza a Titano, l'affascinante satellite di Saturno. Il successo del viaggio di entrambe le sonde è stato spettacolare e il Voyager 1 è oggi l'oggetto costruito dall'uomo piú lontano dalla Terra, a piú di 10 miliardi di miglia da noi, e ancora invia dati.

L'intensità di un segnale diminuisce con il quadrato della distanza, quindi il segnale ricevuto sulla Terra ha un'intensità 10^-20 volte inferiore rispetto a quella che avrebbe se fosse ricevuto dalla distanza di un miglio, cioè un centesimo di miliardesimo di miliardesimo di volte piú debole. La sonda Voyager 1 deve avere un trasmettitore davvero potente... No!, si tratta di una sonda relativamente piccola (la massa è simile a quella di un'auto). alimentata da un generatore termoelettrico che impiega un isotopo radioattivo, il plutonio-238 (238Pu), ma l'energia totale disponibile è oggi pari a un ottavo di quella che alimenta un comune scaldabagno. Sono due le ragioni che ci permettono di ricevere ancora informazioni utili dalla sonda: la disponibilità, sulla Terra, di ricevitori molto potenti e l'impiego di speciali codici che proteggono i dati dall'infiltrazione di errori dovuti a fattori estranei che producano interferenze.

Il Voyager 1 può inviare dati utilizzando due sistemi diversi. Il primo è un canale che invia informazioni alla velocità di trasmissione di 40 unità binarie (una delle due cifre O e 1) al secondo; il bit (binary digit, una delle due cifre O e 1) è l'unità di misura dell'informazione. Questo canale non consente la codifica dei dati, che permetterebbe di controllare i possibili errori. Il secondo canale può trasmettere fino a 120 000 bit/s e le informazioni sono codificate in modo che gli errori possano essere riconosciuti e si possa rimediare alla loro presenza purché non siano troppo frequenti. Il prezzo da pagare per tale capacità consiste nella lunghezza dei messaggi che risulta doppia rispetto a quella normale; dunque, la quantità complessiva dei dati trasmessi è dimezzata. Considerando che gli errori potrebbero danneggiare i dati, praticamente distruggendoli, l'onere appare accettabile.

Codici di questo tipo sono largamente utilizzati in tutti i sistemi di comunicazione attuali: nelle missioni spaziali, nella telefonia fissa e mobile, in internet, cd, dvd, Blu-ray, e cosí via. Senza i codici tutte le comunicazioni sarebbero soggette a possibili errori; circostanze inaccettabili se, ad esempio, si utilizza la rete internet per saldare una fattura. Se l'istruzione da voi inviata di pagare 20 sterline venisse ricevuta come istruzione per il pagamento di 200 sterline, la cosa non sarebbe piacevole. Un lettore di cd impiega una minuscola lente che focalizza un raggio laser sulla sottilissima traccia impressa nel materiale del disco. La lente è disposta, a una distanza molto ridotta, al di sopra del disco in rotazione. Potete ascoltare benissimo il cd anche mentre guidate l'auto su una strada accidentata perché il segnale è codificato in modo tale che gli errori di lettura possono essere individuati e corretti mentre la musica viene trasmessa. Esistono anche altri trucchi per ottenere una buona riproduzione, ma questo è l'essenziale.

La nostra età dell'informazione dipende dai segnali digitalizzati: lunghe sequenze di 0 e 1, impulsi e pause di segnali elettrici o radiotrasmessi. Gli apparecchi che inviano, ricevono, registrano segnali, dipendono strettamente da piccolissimi e precisissimi circuiti elettronici su sottili piastrine di silicio, i famosi chip. Tuttavia, malgrado l'ingegnosità della progettazione e dei sistemi produttivi, nessuno di essi può operare senza codici per la rilevazione degli errori e per la correzione degli stessi. proprio in questo contesto che il termine «informazione» smette di essere una parola generica equivalente a competenza, conoscenza, e diventa una grandezza numerica e misurabile. Tale grandezza fornisce fondamentali limitazioni all'efficienza con cui i codici possono modificare i messaggi per proteggerli dagli errori. La conoscenza di queste limitazioni permette ai progettisti di risparmiare molte perdite di tempo in tentativi di inventare codici tanto efficienti da diventare inutilizzabili. E fornisce le basi per la cultura dell'informazione dei nostri giorni.

Sono abbastanza vecchio da ricordare gli anni in cui il solo modo per telefonare a qualcuno in un'altra nazione (impresa spaventosa, che quasi suscitava orrore) consisteva nel prenotare con un certo anticipo, presso la società che forniva il servizio (nel Regno Unito ce n'era soltanto una, la Post Office Telephones), una comunicazione per un'ora precisa e di una certa durata. Ad esempio 10 minuti alle 15.45 dell'11 gennaio. E costava un patrimonio. Qualche settimana fa con un amico abbiamo preparato un'intervista della durata di un'ora per un convegno sulla fantascienza che si sarebbe svolto in Australia, lavorando in Inghilterra e utilizzando Skype. Una comunicazione gratuita che poteva inviare suoni e immagini. In cinquant'anni sono cambiate un bel po' di cose. Oggi scambiamo informazioni in rete con gli amici, sia quelli effettivi sia quelli fasulli, che un gran numero di persone raccoglie come farfalle attraverso i siti dei social network. Non acquistiamo piú musica in cd o film in dvd; acquistiamo le informazioni che contengono, scaricate nella rete informatica. Anche i libri stanno per prendere la stessa strada. Le aziende che si occupano di ricerche di mercato raccolgono enormi quantità di informazioni sui nostri gusti e comportamenti per influire sulle nostre scelte negli acquisti. Persino nel campo della medicina si dà un'importanza sempre maggiore alle informazioni contenute nel nostro dna. Spesso sembra esistere una tendenza a pensare che se disponiamo delle informazioni necessarie per fare qualcosa, ciò sia sufficiente; non è necessario che lo si faccia davvero e forse neppure che si sappia come farlo.

Sono ben pochi i dubbi che possiamo nutrire sul fatto che la rivoluzione dell'informazione ha cambiato le nostre vite e si può sostenere che, in senso lato, i vantaggi superano gli svantaggi, anche se tra questi si contano la perdita della privacy, il possibile accesso fraudolento ai nostri conti in banca da qualunque angolo del mondo con il semplice clic di un mouse e l'esistenza di virus informatici che possono compromettere i sistemi di sicurezza di una banca o di una centrale nucleare.

Che cos'è l'informazione? Perché ha un cosí grande potere? davvero ciò che si sostiene che sia?

| << |  <  |  >  | >> |

Pagina 353

Immaginiamo per semplicità che i messaggi possano utilizzare due soli simboli: 0 e 1. Ora essi sono equivalenti agli esiti dei lanci di una moneta truccata, dunque a 0 è associata la probabilità p di comparire, mentre la probabilità per 1 è q = 1 - p. L'analisi condotta da Shannon lo ha portato a scrivere una formula che dà l'entità del contenuto di informazione: essa deve essere definita come H = - p log p - q log q dove i logaritmi sono in base 2.

A prima vista la formula non sembra essere intuitiva. Spiegherò tra poco come Shannon l'abbia dedotta, ma prima la piú importante caratteristica da considerare è il comportamento di H, imposto dal secondo membro dell'equazione, mentre p varia da 0 a 1. Come si vede nella figura 56, il valore di H aumenta senza intoppi e regolarmente da 0 a 1 mentre p cresce da 0 a 1/2, poi decresce simmetricamente, tornando a 0, mentre p continua a crescere da 1/2 a 1.

Shannon ha evidenziato numerose «proprietà interessanti» di H che vengono cosí descritte:

- Se p = O, nel qual caso compare soltanto il simbolo 1, la quantità di informazione H ha valore 0. Ciò significa che, se sappiamo con certezza quale simbolo stia per essere trasmesso, quando esso verrà ricevuto non porterà nessun tipo di informazione.

- La stessa situazione si verifica quando p = 1. Comparirà soltanto il simbolo O e di nuovo non riceveremo alcun tipo di informazione.

- La quantità di informazione è massima quando p = q = 1/2, caso che corrisponde al lancio di una moneta non truccata. In questo caso, ricordando che i logaritmi sono in base 2, si ha

H = - 1/2 log 1/2 - 1/2 log 1/2 = - log 1/2 = 1

Ciò significa che il lancio di una moneta non truccata ci trasmette un bit di informazione, come avevamo originariamente assunto prima di preoccuparci della codifica dei messaggi per comprimerli e del fatto che la moneta poteva essere truccata.

- In tutti gli altri casi, il ricevere un simbolo ci trasmette meno di un bit di informazione.

- Quanto piú grande è l'alterazione della moneta, cioè quanto piú è «truccata», tanto minore è la quantità di informazione che ogni lancio ci trasmette.

- La formula «tratta» esattamente nello stesso modo i due simboli. Se scambiamo le probabilità p e q ( p al posto di q e q al posto di p) il valore di H rimane invariato.




Tutte queste proprietà corrispondono a quanto intuitivamente valutiamo come la quantità di informazione ricevuta quando ci viene comunicato il risultato del lancio di una moneta. Questa constatazione ci porta a considerare la formula come una ragionevole ipotesi di lavoro. Shannon presentava i solidi fondamenti della sua definizione elencando i numerosi principi essenziali cui ogni misura del contenuto di informazione dovrebbe soddisfare e ricavandone una formula unica che effettivamente li soddisfi. La sua impostazione aveva connotati di generalità: nell'elaborare il messaggio si poteva scegliere tra numerosi simboli diversi che si presentavano con le relative probabilità p1, p2, ... pn, dove n era il numero dei simboli. La quantità di informazione H trasmessa con la scelta di questi simboli doveva soddisfare queste condizioni:

- H è una funzione continua di p1, p2, ... pn, cioè piccoli cambiamenti nelle probabilità devono portare a piccoli cambiamenti nella quantità di informazione trasmessa;

- se le probabilità sono tutte uguali, e ciò implica che siano tutte pari a 1/n, H dovrebbe aumentare se diventa piú grande n. Dunque se si sceglie fra 3 simboli, tutti ugualmente probabili, la quantità di informazione che viene trasmessa e si riceve dovrebbe essere maggiore di quella che si riceverebbe se si effettuasse la scelta tra 2 simboli ugualmente probabili; una scelta tra 4 simboli dovrebbe trasmettere una quantità di informazione di quella corrispondente a 3 simboli, e cosí via;

- se esiste un modo naturale per suddividere una probabilità in due probabilità conseguenti, la quantità di informazione H trasmessa originariamente dovrà essere equivalente a una semplice combinazioni delle due H precedenti.

| << |  <  |  >  | >> |

Pagina 383

Capitolo diciassettesimo

La formula di re Mida

L'equazione di Black-Scholes

Che cosa ci dice?

Descrive il modo in cui il prezzo di uno strumento finanziario derivato cambia con il passare del tempo, basandosi sul principio per cui, quando il prezzo è corretto, il derivato non comporta rischi e nessuno può trarre un profitto vendendolo a un prezzo diverso.


Perché è tanto importante?

Perché permette di calcolare il valore di uno strumento derivato prima che scada, assegnandogli un valore «razionale», concordato in modo che diventi a pieno titolo un bene virtuale.


Che cosa ha determinato?

L'enorme crescita dell'importanza del settore finanziario, la nascita di strumenti finanziari sempre piú complessi, le ondate di prosperità economica interrotte saltuariamente da crolli, la turbolenza delle borse negli anni novanta del secolo scorso, la crisi finanziaria del 2008-2009 e la congiuntura economica negativa in corso.

| << |  <  |  >  | >> |

Pagina 385

Fin dall'inizio del secolo il settore finanziario è cresciuto soprattutto grazie agli strumenti finanziari detti «derivati». I derivati non sono denaro, non sono neppure investimenti in titoli e azioni, si tratta invece di investimenti su investimenti, ovvero di promesse su promesse. Gli operatori finanziari, i trader, che si occupano di derivati usano denaro virtuale, numeri in un computer: prendono denaro in prestito dagli investitori che probabilmente l'hanno preso in prestito da qualcun altro. Spesso il denaro non viene neppure preso davvero in prestito, neanche in senso virtuale, i trader si limitano a cliccare sul mouse dichiarando che, in futuro, lo prenderanno in prestito, se mai fosse necessario. Ma non hanno davvero l'intenzione di arrivare a quel punto perché venderanno i derivati prima che la necessità di denaro si presenti. Il prestatore (o meglio l'ipotetico prestatore dato che il prestito non avrà mai luogo, per la stessa ragione) probabilmente non ha neppure il denaro necessario. Questa è la finanza nel regno di utopia, ma è diventata ormai pratica comune dei sistemi bancari in tutto il mondo.

Sfortunatamente, lo scambio dei derivati ha portato, negli ultimi tempi, alla perdita di denaro reale e alla sofferenza di molte persone vere. Per la maggior parte del tempo il giochetto può funzionare perché lo scollegamento dalla realtà non ha effetti rilevanti, oltre al fatto di rendere alcuni banchieri e trader molto ricchi grazie alla possibilità di risucchiare denaro vero fuori dal pool virtuale. A un certo punto, però qualcosa è andato storto: tutti i nodi sono venuti al pettine insieme ai debiti virtuali che dovevano però essere saldati con denaro reale. Ovviamente da qualcun altro.

Cosí ha avuto inizio la crisi bancaria del 2008-2009, dalle cui conseguenze le economie mondiali stanno ancora cercando di riprendersi. Tassi di interesse bassi e enormi quantità di bonus usati nei pagamenti hanno spinto i banchieri e le loro banche a investire somme sempre piú ingenti di denaro virtuale su derivati sempre piú complessi, garantiti (almeno cosí si credeva) dal mercato immobiliare e dalle imprese. Quando la disponibilità di beni adatti e di persone disponibili a comprarli ha incominciato a diminuire, i leader del mondo finanziario hanno dovuto trovare nuovi modi per convincere gli azionisti che stavano comunque generando profitti, in modo da poter giustificare e finanziare i propri bonus. E hanno incominciato a scambiare pacchetti di debiti, a loro volta presumibilmente garantiti, in qualche momento del futuro, da beni reali. Per continuare a far funzionare il meccanismo era però necessario l'acquisto continuo di beni, cosí da incrementare il parco dei collaterali usati come garanzia. Di conseguenza le banche hanno concesso mutui a persone la cui capacità di ripagare il prestito ricevuto era sempre meno sicura. Nasceva insomma il mercato dei mutui subprime, in cui «subprime» è un termine eufemistico per dire «probabile rischio di insolvenza». Ma il significato è ben presto diventato «certezza di insolvenza».

Le banche si comportavano come certi personaggi dei cartoni animati che camminano oltre il bordo del precipizio, rimanendo in aria finché guardano giú e, soltanto allora, precipitano a terra. Tutto infatti sembrava andare per il meglio finché i banchieri si sono chiesti se l'apertura di numerosi conti con denaro inesistente e con beni sopravvalutati fosse sostenibile, ma anche quale fosse il valore reale delle loro proprietà in derivati, rendendosi conto che non ne avevano la minima idea. Se non che era infinitamente piú basso di quanto avessero detto agli azionisti e agli enti regolatori governativi.

Quando la terribile verità è venuta a galla, la fiducia è precipitata. Tale perdita di fiducia ha prodotto a sua volta una contrazione del mercato immobiliare, cosí i beni su cui erano stati garantiti i debiti hanno incominciato a perdere il proprio valore. A questo punto l'intero sistema si è trovato invischiato in un feedback positivo ciclico in cui ogni revisione al ribasso faceva sí che il valore venisse in seguito rivisto ulteriormente al ribasso. Alla fine la perdita complessiva è stata di 17 000 miliardi di dollari. Di fronte alla prospettiva del collasso totale del sistema finanziario mondiale, della trasformazione in spazzatura dei risparmi dei correntisti e di far apparire la grande depressione del 1929 come una passeggiata, i governi sono stati costretti a salvare le banche sull'orlo del fallimento. Si è lasciato che una di queste, Lehman Brothers, fallisse, ma la conseguente perdita di fiducia è risultata talmente grande da far sembrare poco saggio ripetere l'operazione. Quindi, i contribuenti hanno sborsato il denaro, gran parte del quale, questa volta, era vero. Le banche hanno arraffato a piene mani il contante cercando di far credere che la catastrofe non fosse stata colpa loro. I banchieri hanno addossato la colpa agli enti regolatori governativi, anche se in precedenza avevano protestato contro i loro controlli: un interessante esempio della scusa: « colpa vostra, avete lasciato che lo facessimo».

Come ha potuto verificarsi la piú grande catastrofe finanziaria della storia dell'umanità?

Presumibilmente un contributo è stato dato da un'equazione matematica.

| << |  <  |  >  | >> |

Pagina 389

Le principali borse valori del mondo hanno subito colto l'opportunità di poter convertire qualcosa di illusorio in una sorta di denaro sonante e, da quel momento, si sono messe a scambiare futures. All'inizio, questa abitudine non ha direttamente fatto emergere enormi problemi economici, anche se ha talvolta determinato una piú forte instabilità invece di portare alla stabilità spesso sbandierata per giustificare il sistema. Però, intorno al 2000, il settore finanziario ha incominciato a sviluppare, a livello mondiale, variazioni sempre piú elaborate sul tema dei futures: «derivati» molto complessi il cui valore era basato su ipotetici movimenti futuri di qualche bene. Diversamente dai futures per i quali il bene almeno era reale, i derivati potevano basarsi su un bene che, a sua volta, era un derivato. Le banche non acquistavano né vendevano scommesse sul prezzo futuro di una merce, come il riso, ma acquistavano e vendevano scommesse sul prezzo futuro di una scommessa.

Tutto il meccanismo si è trasformato assai presto in un grosso affare. Nel 1998 il sistema finanziario internazionale ha registrato lo scambio di 100 000 miliardi di dollari. Questo valore nel 2007 è aumentato considerevolmente, raggiungendo un milione di miliardi di dollari. Migliaia di miliardi, milioni di miliardi... sappiamo che si tratta di grandi numeri, ma quanto grandi? Per farvi l'idea di queste cifre pensate che il valore complessivo di tutti i prodotti delle industrie manifatturiere del mondo, negli ultimi mille anni, è stato di circa 100 000 miliardi di dollari, in valore reale, cioè tenendo conto dell'inflazione. Questa cifra è un decimo dei derivati scambiati in un anno. A dire il vero il grosso della produzione industriale si è verificato negli ultimi cinquant'anni, ma anche cosí si tratta di una cifra sorprendente. In particolare è incredibile pensare che la compravendita di derivati si basi quasi interamente su denaro di fatto inesistente (denaro virtuale, numeri dentro un computer senza alcun collegamento con qualcosa che esiste nel mondo reale). In effetti questi scambi devono per forza essere virtuali perché la somma complessiva del denaro in circolazione, a livello mondiale, non basta assolutamente per pagare le somme scambiate con il clic di un mouse. Scambi compiuti da persone che non hanno alcun interesse nella merce in gioco e non saprebbero cosa farsene se la ricevessero in consegna, servendosi di denaro che effettivamente non posseggono.

Non è necessario essere un ingegnere esperto di missilistica per sospettare che quanto ho descritto finora è una ricetta perfetta per provocare un disastro. Ciononostante, per decenni l'economia mondiale è cresciuta incessantemente grazie alla compravendita dei derivati. Se volevate acquistare una casa potevate avere facilmente un prestito; e potevate addirittura ottenere piú di quanto valeva la casa. La banca non si preoccupava neppure di verificare quali fossero le vostre vere entrate, o quali e quanti debiti potevate avere. Ottenevate comunque un mutuo autocertificato al 125 per cento (ciò significa che voi dicevate alla banca quanto potevate permettervi di spendere e la banca non faceva domande imbarazzanti) e spendere il denaro in piú per una vacanza, un'automobile, un intervento di chirurgia plastica, o casse di birra. La banca si spingeva oltre e convinceva i clienti a chiedere un prestito anche se non era strettamente necessario.

Come pensavano i banchieri di cavarsela se chi riceveva il prestito non riusciva a restituirlo? Beh, è chiaro, i prestiti erano garantiti dalle case. I prezzi delle case lievitavano, quindi quel 25 per cento del valore ipotecario che mancava sarebbe presto diventato reale; se si era inadempienti, la banca poteva prendersi la casa di chi aveva acceso il mutuo, venderla e rientrare di tutta la somma che aveva dato in prestito. Un meccanismo che sembrava infallibile. Ma ovviamente non lo era. I banchieri non si sono chiesti che cosa sarebbe accaduto al prezzo degli immobili se centinaia di banche avessero tutte tentato di vendere milioni di case nello stesso momento. E non si sono neppure chiesti se il prezzo delle case potesse continuare a salire in modo significativamente piú rapido dell'inflazione. Sembravano davvero convinti della possibilità di una crescita annua del 10-15 per cento dei prezzi degli immobili, all'infinito. Stavano persino esercitando pressioni sugli organi di controllo perché rendessero piú elastiche le regole consentendo alle banche di prestare quantità ancora maggiori di denaro, quando il mercato immobiliare è improvvisamente crollato.

| << |  <  |  >  | >> |

Pagina 392

Il modello del moto browniano di Bachelier ci porta a concludere che le ampie fluttuazioni della borsa valori molto ampie sono talmente rare che, in pratica, non dovrebbero verificarsi mai. La tabella 3 ci dice che, ad esempio, un evento cinque-sigma dovrebbe verificarsi circa sei volte ogni 10 milioni di tentativi.

________________________________________________________________
Tabella 3.
Probabilità di eventi e multipli della deviazione standard σ.


  dimensione minima delle fluttuazioni            probabilità
                     σ                             0,3174
                    2σ                             0,0456
                    3σ                             0,0027
                    4σ                             0,000063
                    5σ                             0,0000006
________________________________________________________________

In realtà, i dati riferiti alla borsa dimostrano che fluttuazioni di questo tipo sono ben piú frequenti. Le azioni della Cisco Systems, azienda leader nel campo delle comunicazioni, hanno subito dieci eventi cinque-sigma negli ultimi vent'anni, mentre l'analisi condotta seguendo il modello del moto browniano ne prevedeva appena 0,003. Ho scelto questa azienda a caso ma si tratta di un esempio tutt'altro che inconsueto. Un lunedí nero (il 19 ottobre 1987) le borse mondiali hanno perso oltre il 20 per cento del loro valore in poche ore: un evento tanto estremo che avrebbe dovuto essere virtualmente impossibile.

I dati oggettivi suggeriscono in modo inequivocabile che eventi estremi non sono affatto rari come prevederebbero le stime «browniane». La distribuzione di probabilità non decresce esponenzialmente (o anche piú in fretta); si smorza invece seguendo una curva corrispondente a una funzione del tipo x^-a (dove a è costante e positiva). Nel gergo finanziario queste distribuzioni vengono connotate come «a coda pesante». La coda pesante indica un aumento del livello di rischio: se il vostro investimento ha un valore atteso di cinque-sigma, considerando esatto il modello del moto browniano, la probabilità che non vada a buon fine è di uno su un milione. Ma se le code sono pesanti, potrebbe essere assai maggiore, forse anche di uno su cento. E ciò renderebbe l'operazione decisamente meno vantaggiosa.

Un termine correlato a questi meccanismi, reso popolare da Nassim Nicholas Taleb , esperto di matematica finanziaria, nato in Libano e naturalizzato negli Stati Uniti, è «evento di tipo cigno nero». Taleb lo ha illustrato nel suo saggio del 2007, diventato un best seller, The Black Swan (Il cigno nero: come l'improbabile governa la nostra vita, 2008). Nell'Antichità, gli unici cigni conosciuti erano bianchi, tanto che il poeta Giovenale poteva scrivere, all'inizio del II secolo: «Rara avis in terris, nigroque simillima cycno» (uccello raro sulla terra, e molto simile a cigno nero) per indicare qualcosa di impossibile. Questa frase è stata diffusamente usata nel XVI secolo, come altre comuni ai nostri giorni, ad esempio sulla scarsa probabilità di poter vedere asini che volano. Nel 1697, però, quando l'esploratore olandese Willem de Vlamingh raggiunse, nell'Australia occidentale, il fiume al quale assegnò opportunamente il nome Swan River, vide moltissimi cigni neri. E il significato della frase cambiò: ora viene riferita a una supposizione che sembra avere solide basi, ma potrebbe in un qualsiasi momento rivelarsi del tutto errata. Un altro termine oggi d'uso comune è «evento X», per indicare un «evento estremo».

Queste prime analisi dei mercati in termini matematici hanno incoraggiato gli studiosi a sviluppare l'allettante idea di poter descrivere e interpretare i mercati con modelli matematici in grado di assicurare un modo razionale e sicuro di guadagnare illimitate somme di denaro. Nel 1973 sembrò che il sogno potesse diventare davvero realtà, quando Fischer Black e Myron Scholes scoprirono un metodo per stabilire il prezzo delle opzioni: l'equazione di Black-Scholes. Nello stesso anno, Robert Merton realizzò un'analisi matematica del loro modello, aumentandone le potenzialità. L'equazione è:

1/2 (σS) ∂V/∂S + rS ∂V/∂S + ∂V/∂t - rV = 0

In essa compaiono cinque diverse grandezze: l'intervallo di tempo t, il prezzo S del titolo o del bene sottostante, il prezzo V del derivato (che dipende da S e da t), il tasso di interesse privo di rischio r (l'interesse che può essere teoricamente guadagnato da un investimento a rischio zero, come i titoli di stato), e la volatilità σ del titolo. Si tratta di un'equazione sofisticata dal punto di vista matematico: un'equazione differenziale alle derivate parziali di secondo ordine, come quelle che descrivono la propagazione delle onde o del calore. L'equazione esprime il tasso di cambiamento del prezzo del derivato, rispetto al tempo, come una combinazione lineare di tre termini: il prezzo del derivato stesso, la rapidità con cui questo si modifica rispetto al prezzo del titolo, e l'accelerazione di tale cambiamento. Altre variabili compaiono come coefficienti di quei termini. Se i termini che rappresentano il prezzo del derivato e il suo tasso di cambiamento venissero omessi, l'equazione sarebbe esattamente uguale all'equazione del calore, e descriverebbe come il prezzo dell'opzione si diffonde nello spazio rappresentato dal prezzo del titolo. Questa osservazione ci riporta all'assunto di Bachelier sul moto browniano. I termini che rendono diverse le equazioni danno conto dei fattori addizionali.

La formula di Black-Scholes è stata elaborata come una conseguenza di un certo numero di presupposti legati al contesto finanziario e che ne semplificano la descrizione (ad esempio il fatto che non esistono costi delle transazioni e non ci sono limiti alla vendita allo scoperto, e che sia possibile prestare o prendere in prestito denaro a un tasso di interesse fisso e privo di rischio).

| << |  <  |  >  | >> |

Pagina 400

Due tipi di derivati hanno avuto un ruolo predominante nel rendere «tossici» i mercati finanziari all'inizio del XXI secolo: i credit default swap (CDS) e le collateralised debt obligation (CDO). Un CDS è una sorta di assicurazione in cui si paga un certo importo periodico a un operatore (il protecion seller) che agisce come «assicuratore» impegnandosi a restituirvi il denaro inizialmente investito se il vostro debitore non salda il proprio debito. Chiunque però può richiedere questo tipo di assicurazione su qualsiasi cosa. Non è necessariamente l'azienda che deve saldare il debito (o deve ricevere il saldo) a richiedere questa protezione. Di conseguenza, un fondo speculativo potrebbe scommettere sull'inadempienza dei clienti di una banca nel versare le rate del proprio mutuo e, se questi davvero lo sono, il fondo potrà fare un sacco di soldi pur non essendo parte in causa nei contratti di mutuo. Questa possibilità si è rivelata un incentivo per gli speculatori che potevano esercitare una certa influenza sulle condizioni di mercato per rendere piú probabili le insolvenze. Una CDO è un'obbligazione garantita da un insieme (portafoglio) di beni. Tali beni possono essere tangibili, come nel caso dei mutui garantiti dagli immobili veri e propri, ovvero può trattarsi di derivati, o ancora di un miscuglio di entrambi. Il proprietario dei beni vende agli investitori il diritto a condividere una parte dei profitti tratti da quei beni. Un investitore può sottoscriverlo senza rischi ed essere tra i primi a ottenere un profitto, ma questo può costargli molto. In alternativa può assumersi un rischio, pagare meno e occupare un posto piú basso nell'ordine di chiamata quando si dovranno spartire i profitti.

Entrambi i tipi di derivati sono stati scambiati da banche, fondi speculativi e altri operatori finanziari. Per stabilirne il prezzo venivano usate equazioni dedotte a partire da quella di Black-Scholes, pertanto erano considerati beni a pieno diritto. Le banche prendevano in prestito denaro da altre banche e potevano a loro volta prestarlo alle persone cui serviva un mutuo; queste ottenevano il prestito dando come garanzie vere proprietà immobiliari e derivati di vari tipi. Ben presto tutti hanno incominciato a prestare ingenti somme di denaro a chiunque, in gran parte garantite da derivati finanziari. Fondi speculativi e altri strumenti di investimento tentavano di far soldi individuando in anticipo i potenziali disastri e scommettendo sulla probabilità che si verificassero. Il valore dei derivati coinvolti e dei beni reali, come le case, veniva spesso calcolato applicando il procedimento del mark to market (valutare in base al valore di mercato), un sistema soggetto ad abusi perché si serve di meccanismi contabili artificiali e aziende sussidiarie a rischio per presentare profitti futuri stimati come profitti attuali. Quasi tutti gli operatori in questo tipo di transazione utilizzavano lo stesso metodo, basato sul concetto di value at risk (VaR) per calcolare l'entità del rischio dei derivati. Tale procedimento calcola la probabilità che un investimento possa portare a una perdita che eccede una soglia specifica. Ad esempio, gli investitori potrebbero essere disposti ad accettare una perdita di un milione di dollari se la probabilità che si verifichi è inferiore al 5 per cento, ma non se è piú alta. Come le formule di Black-Scholes, il calcolo del VaR presuppone che non ci siano code pesanti. Forse l'aspetto peggiore di queste operazioni è dato dal fatto che l'intero settore finanziario stima i propri rischi usando esattamente lo stesso metodo. Se il metodo non è giusto, può nascere in tutti l'illusione che il rischio sia basso, mentre in realtà è assai piú grande.

Insomma una situazione simile a un disastro ferroviario di cui si sa che accadrà oppure, come dicevo, al personaggio dei cartoni animati che cammina per un miglio in aria oltre il bordo del crepaccio perché si rifiuta ostinatamente di guardare che cos'ha sotto i piedi. Come Mary Poovey e altri hanno ripetutamente segnalato, i modelli adottati per stabilire il valore dei prodotti finanziari e stimare eventuali rischi connessi con il loro impiego si basano su presupposti semplificati, che non rappresentano con la necessaria precisione i mercati reali e il pericolo intrinseco. Chi giocava nei mercati finanziari ha ignorato questi avvertimenti. Sei anni piú tardi ci siamo tutti resi conto delle ragioni per cui questo atteggiamento era sbagliato.




Forse esiste un modo migliore per procedere.

L'equazione di Black-Scholes ha cambiato il mondo facendo nascere un'industria a dir poco esplosiva che vale un milione di miliardi di dollari. Le generalizzazioni della formula, usate con scarsa intelligenza da una piccola cricca di banchieri, hanno cambiato di nuovo il mondo, contribuendo a una crisi finanziaria da migliaia e migliaia di miliardi, i cui effetti sempre piú disastrosi, che si estendono ora alle intere economie nazionali, si fanno tuttora sentire a livello mondiale. L'equazione rientra nell'ambito della classica matematica del continuo se si tiene conto delle sue radici che si rintracciano nelle equazioni differenziali alle derivate parziali della fisica matematica. Questo è un campo in cui le quantità sono divisibili all'infinito, il tempo scorre con continuità e le variabili cambiano uniformemente. Le relative tecniche operano bene per la fisica matematica, ma sembrano meno appropriate per il mondo della finanza in cui il denaro si presenta in pacchetti discreti, gli scambi si verificano uno alla volta (anche se molto in fretta) e molte variabili hanno un andamento discontinuo e compiono balzi improvvisi.

L'equazione di Black-Scholes è basata anche sui tradizionali presupposti della matematica classica applicata all'economia: informazione perfetta, perfetta razionalità, equilibrio del mercato, legge della domanda e dell'offerta. Questa disciplina è stata insegnata per decenni come se i presupposti fossero verità assiomatiche e molti economisti esperti non le hanno mai messe in dubbio, anche se erano, a ben vedere, prive di una conferma empirica. Nelle poche occasioni in cui qualcuno conduce esperimenti per osservare come la gente compia scelte finanziarie, gli scenari classici, di solito, non funzionano. E come se gli astronomi avessero passato l'ultimo secolo a calcolare in che modo si muovono i pianeti, basandosi su ciò che pensavano fosse ragionevole, senza mai dare un'occhiata per vedere quello che i pianeti fanno davvero.

In realtà l'economia classica non è del tutto sbagliata, ma lo è comunque piú spesso di quanto asseriscano i suoi sostenitori. E quando sbaglia, gli sbagli sono decisamente molto grossi. Cosí fisici, matematici ed economisti sono tutti in cerca di modelli migliori. Alla ribalta, in questa ricerca, ci sono i modelli basati sulla scienza dei sistemi complessi, un nuovo ramo delle scienze matematiche che sostituisce il pensiero classico su cui si basa la matematica del continuo con una ben precisa raccolta di agenti individuali, che interagiscono tra loro secondo regole specifiche.

Un modello classico del movimento dei prezzi di qualche bene, ad esempio, ipotizza che in un qualche istante esista un singolo prezzo «giusto», che in linea di principio è noto a chiunque e presuppone che i possibili acquirenti confrontino questo prezzo con una funzione di utilità (che indica quanto è utile il bene per loro) e acquistino il bene se la sua utilità supera il suo costo. Un modello di sistema complesso è assai diverso. Potrebbe coinvolgere, ad esempio, diecimila agenti, ognuno con la propria idea di quanto valga effettivamente il bene e di quanto sia desiderabile. Alcuni agenti potrebbero avere informazioni piú accurate di quelle che hanno gli altri, alcuni potrebbero appartenere a piccoli network che scambiano informazioni (piú o meno accurate) ma anche denaro e beni.

Dallo studio di questi modelli è emerso un certo numero di caratteristiche interessanti. Una è il ruolo svolto dall'istinto del branco. I trader che operano sul mercato tendono a imitare gli altri trader. Se non lo fanno e si scopre che gli altri hanno successo i loro superiori saranno scontenti. D'altro canto, se seguono il branco e tutti sbagliano hanno una buona scusa: ho fatto quello che facevano tutti gli altri. L'equazione di Black-Scholes era perfetta per convalidare l'istinto del branco. A conti fatti, praticamente ogni crisi finanziaria nell'ultimo secolo è stata esasperata dall'istinto del branco. Ad esempio, invece di avere una differenziazione tra banche che investono nel campo immobiliare e altre che scelgono quello della produzione manifatturiera, si è avuta una convergenza e tutte le banche si sono buttate sull'immobiliare. Questa scelta ha appesantito e irrigidito il mercato, con troppo denaro da una parte e un numero troppo basso di pochi immobili dall'altra e l'intero sistema è andato in pezzi. A questo punto tutti si sono buttati sui prestiti al Brasile o alla Russia, o ancora una volta sul mercato immobiliare che si era ripreso, o hanno perso collettivamente la testa per le società di servizi dot-com (tre ragazzi in una stanza con un computer e un modem, che sono stati valutati anche dieci volte piú di una grossa azienda manifatturiera con un prodotto reale, veri clienti, vere fabbriche e uffici). E quando anche queste opportunità sono finite a pancia in aria, tutti si sono gettati nel mercato dei mutui subprime...

Non si tratta di un'interpretazione ipotetica. Eppure, persino quando le ripercussioni della crisi globale del settore bancario incidono sulla vita della gente comune e le economie nazionali annaspano, ci sono segnali da cui si può dedurre che nessuno ha imparato la lezione. Una replica della moda passeggera delle aziende dot-com è in atto, ora rivolta ai social network: Facebook è stata valutata 100 miliardi di dollari, mentre per Twitter (il sito web su cui le celebrità inviano «tweets» di 140 caratteri ai loro ammiratori piú devoti) è stata data una valutazione di 8 miliardi di dollari anche se non ha mai registrato un profitto.

| << |  <  |  >  | >> |

Pagina 406

Ciononostante, le nuove regole, almeno per una considerevole parte, non sono riuscite a risolvere il vero problema che è rappresentato dalla struttura, a livello progettuale assai modesta, del sistema finanziario in sé. La possibilità di trasferire miliardi di dollari grazie a un clic del mouse permette certamente di accumulare profitti sempre piú alti ma permette anche a qualunque sussulto o scossa di propagarsi piú in fretta incrementando la complessità dell'insieme. Queste caratteristiche sono entrambe destabilizzanti. La mancata tassazione delle transazioni finanziarie ha permesso ai trader di sfruttare la velocità crescente delle operazioni scommettendo cifre sempre piú alte sul mercato e con una frequenza sempre maggiore. Un altro fattore che ha contribuito ad aumentare l'instabilità. I teorici della tecnologia sanno che il mezzo piú sicuro per ottenere una rapida risposta è rappresentato dall'impiego di un sistema instabile: la stabilità, per definizione, implica una resistenza intrinseca al cambiamento, mentre una rapida risposta richiede la condizione opposta. Conseguentemente, la ricerca di profitti sempre maggiori ha determinato l'evoluzione di un sistema finanziario sempre piú instabile.

Ricorrendo ancora una volta ad analogie con gli ecosistemi, Haldane e May propongono vari esempi di come si potrebbe aumentare la stabilità. Alcuni corrispondono alle sollecitazioni «istintive» degli stessi enti regolatori, come quelle che li spingono a chiedere alle banche di avere una maggior quantità di capitale, che serve come tampone per attutire le scosse. Altri esempi non sono di questo tipo: uno invita i regolatori a non concentrarsi sui rischi associati alle singole banche, ma su quelli che interessano l'intero sistema finanziario. La complessità del mercato dei derivati potrebbe essere ridotta richiedendo che tutte le transazioni passino attraverso un organo di controllo centralizzato. Una tale agenzia dovrebbe essere molto solida e sostenuta da tutte le principali nazioni, ma, se ci fosse, le scosse che si propagano verrebbero attenuate mentre attraversano l'agenzia stessa e vengono sottoposte ai suoi controlli.

Un altro suggerimento riguarda l'incremento della diversificazione dei metodi usati dai trader e dei criteri di valutazione del rischio. Una monocoltura in ambito ecologico è instabile perché un qualsiasi shock che si verificasse avrebbe una maggiore probabilità di influire su ogni elemento del sistema simultaneamente e allo stesso modo. Quando tutte le banche usano lo stesso metodo per valutare i rischi, emerge lo stesso problema: se sbagliano, lo fanno tutte nello stesso momento. La crisi finanziaria si è verificata in parte perché tutte le principali banche usano le medesime tecniche per coprire le proprie passività, stabiliscono il valore dei loro beni nello stesso modo e valutano anche i possibili rischi nello stesso modo.

L'ultimo suggerimento che viene dall'ecologia riguarda la modularità. Si pensa che gli ecosistemi si stabilizzino organizzandosi (grazie all'evoluzione) in moduli piú o meno autosufficienti, connessi gli uni con gli altri in modo relativamente semplice. La modularità aiuta a prevenire la propagazione delle scosse. Questo è il motivo per cui in tutto il mondo gli enti regolatori stanno seriamente prendendo in considerazione la scelta di frammentare le grandi banche e sostituirle con un certo numero di banche piú piccole. Come ha detto Alan Greenspan, eminente economista statunitense ed ex presidente della Federal Reserve a proposito delle banche: «Se sono troppo grandi per fallire, vuol dire che sono troppo grandi».

| << |  <  |  >  | >> |

Pagina 409

E le prossime equazioni?


Quando qualcuno scrive un'equazione, non accade di solito che ci sia un improvviso scoppio di tuono, dopo il quale tutto cambia. La maggioranza delle equazioni ha scarsi effetti o non ne ha affatto (ne scrivo tantissime e, potete credermi, so che è proprio cosí). Anche le equazioni piú importanti (per le possibili conseguenze) devono ricevere un certo aiuto per cambiare davvero il mondo: occorrono procedure efficaci per risolverle, persone dotate di una forte immaginazione e della spinta utile per sfruttare adeguatamente ciò che esse ci insegnano, ma anche apparecchiature, risorse, materiali, denaro. Tenendo conto di questi requisiti, è evidente che le equazioni hanno tracciato nuovi percorsi per il cammino dell'umanità, e ci fanno da guida mentre indaghiamo su tali percorsi.

Ci sono volute ben piú di 17 equazioni per farci arrivare dove oggi ci troviamo. Il mio elenco non comprende che una scelta di alcune tra le piú significative per il loro effetto e ciascuna di esse ne ha richieste moltissime altre prima di diventare utile sul serio. Ognuna di queste equazioni merita però di essere compresa nella lista perché ha rappresentato un punto di svolta nella storia. Pitagora ha fornito i mezzi per cartografare le terre note e per navigare sui mari e scoprirne altre. Newton ci ha insegnato come si muovono i pianeti e come possiamo inviare sonde spaziali per esplorarli. Maxwell ci ha fornito essenziali indizi che hanno portato all'invenzione della radio, della televisione e dei moderni mezzi di comunicazione. Shannon ha dimostrato che esistono limiti ineludibili a quanto possano essere efficienti tali comunicazioni.

Spesso un'equazione ha portato a risultati molto diversi da ciò che interessava chi l'ha inventata o scoperta. Chi avrebbe potuto prevedere, nel XV secolo, che uno sconcertante numero, in cui ci si era imbattuti tentando di risolvere qualche problema di algebra, un numero la cui esistenza era apparentemente impossibile, sarebbe stato per sempre connesso con l'ancor piú sconcertante e apparentemente impossibile mondo della fisica quantistica, senza contare che avrebbe spianato la strada all'invenzione di miracolose apparecchiature in grado di risolvere, ogni secondo, milioni di problemi e di permetterci di esser visti e ascoltati all'istante da amici sull'altra faccia del pianeta? Come avrebbe reagito Fourier se gli avessero detto che il suo nuovo metodo per studiare il trasferimento del calore sarebbe stato integrato in macchine, non piú grandi di un mazzo di carte, in grado di dipingere immagini straordinariamente dettagliate e fedeli di qualunque soggetto su cui vengono puntate (a colori, e persino in movimento) e tali da essere contenute a migliaia in un oggettino piccolo come una moneta?

Le equazioni scatenano gli eventi, e gli eventi, per parafrasare quanto diceva il primo ministro inglese Harold MacMillan, sono ciò che ci tiene svegli di notte. Quando un'equazione rivoluzionaria è lasciata a se stessa, sviluppa una vita tutta sua. Le conseguenze possono essere buone o cattive, anche quando l'intento originale era filantropico, come è stato per ciascuna delle 17 che ho analizzato in questo libro. La nuova fisica di Einstein ci ha dato una nuova visione del mondo, ma tra le applicazioni in cui è stata usata ci sono gli ordigni nucleari. Non in modo diretto, come sostiene il mito piú diffuso; ciononostante essa ha fornito un contributo a quelle realizzazioni. L'equazione di Black-Scholes ha dato vita a un settore molto vivace della finanza e ha rischiato, in seguito, di distruggerlo. Le equazioni sono ciò che noi ne facciamo, e il mondo, come conseguenza del fatto che esistono, può esserne cambiato in peggio o in meglio.

Le equazioni sono di vari tipi. Alcune sono verità matematiche, sono tautologie, che affermano la propria verità: pensate ai logaritmi di Nepero. Ma le tautologie possono anche fornire strumenti di grande efficacia al modo di pensare dell'uomo e alla realizzazione delle sue imprese. Alcune sono affermazioni relative al mondo fisico che, per quanto ne sappiamo, potrebbe essere stato diverso. Equazioni di questo genere descrivono le leggi della natura e, quando le risolviamo, ci dicono quali sono le conseguenze di tali leggi. Certe equazioni presentano caratteristiche dei due tipi: l'equazione di Pitagora costituisce di fatto un teorema della geometria di Euclide, fornisce anche informazioni ai cartografi e a chi traccia la rotta d'un viaggio. Alcune sono poco piú di una definizione, ma quella che definisce i, l'unità immaginaria, o quella che descrive l'informazione, ci forniscono una grande quantità di nozioni, una volta che le definizioni sono accettate.

Alcune equazioni sono universalmente valide; alcune descrivono il mondo con grande precisione, ma non in modo assolutamente perfetto; altre sono meno precise, e sono valide soltanto in determinati settori, ma forniscono comunque intuizioni di vitale importanza; altre ancora sono a rigore del tutto inesatte, eppure possono funzionare come massi di pietre che permettono di passare un guado e arrivare a qualcosa di meglio. E il loro effetto può comunque essere enorme.

Qualche equazione può anche portarci ad affrontare questioni difficili, di stampo filosofico, sul mondo in cui viviamo e sul posto che in esso occupiamo. Il problema della misurazione, in termini quantistici, evidenziato in modo spettacolare dallo sfortunato gatto di Schrdinger, è uno di questi. Il secondo principio della termodinamica solleva dubbi di notevole peso concernenti il disordine e la freccia del tempo. In entrambi i casi, alcuni degli apparenti paradossi possono essere parzialmente risolti prestando meno attenzione al contenuto dell'equazione che al contesto in cui la si impiega: non ai simboli dunque, ma alle condizioni al contorno. La freccia del tempo non costituisce un problema per l'entropia, ma un problema relativo al contesto nel quale interpretiamo l'entropia, ragionando sul suo significato.

Le equazioni esistenti possono acquisire una nuova importanza al passare del tempo. Le ricerche sulla fusione nucleare, processo che viene visto come un'alternativa ecologicamente pulita alla fissione negli attuali reattori e all'impiego dei combustibili fossili, richiedono conoscenze su come si spostano in un campo magnetico i gas estremamente caldi che sono nello stato fisico di plasma. Ad altissime temperature gli atomi di gas perdono, per l'estrema agitazione, gli elettroni periferici, dotati di carica elettrica negativa, e risultano quindi elettricamente positivi. Si tratta di un problema di magnetoidrodinamica che richiede l'applicazione delle equazioni già note della fluidodinamica e di quelle dell'elettromagnetismo. Lo studio combinato di questi fenomeni ci porta a indagare su fenomeni nuovi che danno indicazioni su come si possa mantenere stabile un plasma alle temperature necessarie per ottenere la fusione nucleare. Gli strumenti elettivi per queste ricerche sono ancora equazioni.

Esiste (o forse potrebbe esistere) un'equazione per la quale fisici e cosmologi darebbero qualunque cosa, pur di metterci le mani sopra: è quella di una Teoria del Tutto, che all'epoca di Einstein era indicata come una teoria del campo unificato. Si tratta dell'equazione, da tempo ricercata, che dovrebbe unificare la meccanica quantistica e la teoria della relatività: Einstein dedicò gli ultimi anni della sua vita alla ricerca, infruttuosa, di questa unificazione. Entrambe le teorie funzionano, ma i risultati che forniscono sono validi in settori ben distinti: nel mondo dell'estremamente piccolo e in quello dell'estremamente grande. Quando si tenta di sovrapporle esse diventano incompatibili. Ad esempio, la meccanica quantistica ha una struttura lineare; la relatività non ha una tale struttura. Ciò che si ricerca è un'equazione in grado di spiegare perché le due teorie diano risultati tanto soddisfacenti, ma che riesca a eseguire il lavoro di entrambe senza incongruenze logiche. Sono numerose le proposte teoriche che si candidano come possibili teorie del tutto; la piú nota è la teoria delle superstringhe. Questa, tra varie altre caratteristiche, mette in gioco ulteriori dimensioni dello spazio-tempo, oltre alle quattro note: sei, e in qualche variante, sette. Le superstringhe hanno una loro eleganza matematica, ma non si hanno prove convincenti della possibilità che esse costituiscano un'effettiva descrizione della natura. In ogni caso, è tanto arduo da essere scoraggiante impostare ed eseguire i calcoli necessari per ottenere previsioni quantitative dalla teoria delle superstringhe.

Per quanto ne sappiamo, potrebbe non esistere una Teoria del Tutto. Tutte le nostre equazioni che descrivono il mondo fisico potrebbero essere soltanto modelli, estremamente semplificati, che descrivono zone limitate della natura in un modo per noi comprensibile, ma non tale da discernere la struttura profonda della realtà. Anche se la natura obbedisce veramente a leggi rigorose, queste potrebbero non essere esprimibili come equazioni.

Pur essendo importanti e indispensabili, non è detto che le equazioni debbano essere semplici. Potrebbero essere tanto complesse che noi non siamo neppure in grado di scriverle. I tre miliardi di basi costituenti il dna del nostro genoma sono, in un certo senso, una parte dell'equazione dell'essere umano. Esistono parametri che potrebbero essere inseriti in un'equazione piú generica dello sviluppo biologico. (a mala pena) possibile stampare su carta il nostro genoma: servirebbero i fogli di circa duemila libri delle dimensioni di questo. Un tale testo può stare abbastanza facilmente nella memoria di un computer, ma non è che una piccola parte di una qualsiasi ipotetica «equazione dell'uomo».

Quando le equazioni diventano tanto complicate, ci serve un aiuto. I computer sono già in grado di elaborare equazioni da grandi insiemi di dati, in circostanze in cui i comuni procedimenti usati dall'uomo falliscono oppure sono troppo incerti per essere utili. Una nuova strategia operativa detta computazione evolutiva può rilevare ripetitività significative, dunque schemi che si possono interpretare: in particolare, formule per quantità che si conservano, cioè caratteristiche che non cambiano. Con uno di questi sistemi, detto Eureqa, elaborato dagli statunitensi Hod Lipson e Michael Schmidt, si sono ottenuti alcuni successi. Software come questo possono essere d'aiuto. O possono non condurre a nulla che sia davvero interessante.

Non pochi ricercatori, specialmente tra quelli che hanno una formazione basata sullo studio delle tecniche di calcolo, pensano che ormai sia arrivato il momento di abbandonare del tutto le equazioni tradizionali, specialmente quelle della matematica del continuo, come le equazioni differenziali comuni o quelle alle derivate parziali. Il futuro si presenta all'insegna del discreto, è rappresentato da numeri interi, e le equazioni dovranno far spazio agli algoritmi, cioè a procedure di calcolo. Invece di risolvere equazioni, dovremmo simulare il mondo utilizzando la digitalizzazione, facendo lavorare gli algoritmi. In effetti il mondo potrebbe essere digitale. Stephen Wolfram , fisico e matematico inglese, ha scelto questo punto di vista come argomento di discussione nel suo controverso A New Kind of Science (2002), che descrive un tipo di sistema complesso detto automa cellulare. Questo è un insieme di celle (o cellule), ad esempio piccoli quadrati o rettangoli, ognuna delle quali esiste in una certa quantità di stati distinti. Le celle interagiscono con quelle vicine secondo regole fisse. Fanno un po' pensare, tutte insieme, a uno di quei giochi per computer degli anni ottanta, in cui mattoncini colorati si davano la caccia a vicenda sullo schermo.

Wolfram espone alcune ragioni che spiegherebbero la superiorità degli automi cellulari rispetto alle tradizionali equazioni. In particolare alcuni di questi sarebbero in grado di eseguire qualunque calcolo che possa essere rappresentato da un computer: il piú semplice è il famoso Rule 110. Questo automa può calcolare a volontà i decimali di π, risolvere numericamente l'equazione dei tre corpi, rendere piú efficace l'equazione di Black-Scholes per le call options con qualunque caratteristica. I metodi tradizionali per risolvere le equazioni hanno limiti di applicazione piú ristretti. Francamente non trovo convincente questo ragionamento, perché è anche vero che ogni automa cellulare può essere simulato da un sistema dinamico tradizionale. Ciò che conta non è sapere se un dato sistema matematico possa simularne un altro, ma quale sistema sia il piú efficiente nel risolvere problemi o nel fornire ipotesi. Si fa piú in fretta a sommare gli elementi di una serie tradizionale per ottenere «a mano» π che a calcolare lo stesso numero di decimali utilizzando l'automa Rule 110.

tuttavia assolutamente plausibile che l'uomo riesca, in tempi prossimi, a trovare nuove leggi di natura basate su elementi strutturali e sistemi discreti, digitali. Il futuro potrebbe essere costituito da algoritmi e non da equazioni. Ma fino a quando non verrà quel giorno, se mai verrà, le nostre piú importanti ipotesi sulle leggi della natura continueranno ad avere la forma di equazioni e dovremo sempre imparare a comprenderle e a riconoscerne il valore. Le equazioni hanno lasciato una traccia. Hanno veramente cambiato il mondo, e lo cambieranno ancora.

| << |  <  |