Copertina
Autore Piergiorgio Odifreddi
Titolo La matematica del Novecento
SottotitoloDagli insiemi alla complessità
EdizioneEinaudi, Torino, 2000, PBE 48 , pag. 193, dim. 115x195x13 mm , Isbn 978-88-06-15153-9
LettoreRenato di Stefano, 2000
Classe matematica , informatica: fondamenti , storia della scienza
PrimaPagina


al sito dell'editore


per l'acquisto su IBS.IT

per l'acquisto su BOL.IT

per l'acquisto su AMAZON.IT

 

| << |  <  |  >  | >> |

Indice


VII     Prefazione di Gian Carlo Rota

        La matematica del Novecento

  3     Introduzione

  9     I. Fondamenti

 11 l.  Anni '20: gli insiemi
 15 2.  Anni '40: le strutture
 18 3.  Anni '60: le categorie
 22 4.  Anni '80: il Lambda Calcolo

 26     II. Matematica pura

 30 l.  Analisi: la misura di Lebesgue
        (1902)
 34 2.  Algebra: la classificazione dei
        campi di Steinitz (1910)
 37 3.  Topologia: il teorema del punto
        fisso di Brouwer (1910)
 40 4.  Teoria dei numeri: i numeri
        trascendenti di Gelfond (1929)
 44 5.  Logica: il teorema di
        incompletezza di Gödel (1931)
 47 6.  Calcolo variazionale: le superfici
        minimali di Douglas (1931)
 51 7.  Analisi: le distribuzioni di
        Schwartz (1945)
 56 8.  Topologia differenziale: le
        strutture esotiche di Milnor
        (1956)
 59 9.  Teoria dei modelli: i numeri
        iperreali di Robinson (1961)
 63 10. Teoria degli insiemi: il teorema
        di indipendenza di Cohen (1963)
 66 1l. Teoria delle singolarità: la
        classificazione delle catastrofi
        di Thom (1964)
 71 12. Algebra: la classificazione dei
        gruppi finiti di Gorenstein (1972)
 77 13. Topologia: la classfflcazione
        delle superfici tridimensionali di
        Thurston (1982)
 82 14. Teoria dei numeri: la
        dimostrazione di Wiles dell'ultimo
        teorema di Fermat (1995)
 87 15. Geometria discreta: la soluzione
        di Hales del problema di Keplero
        (1998)

 92     III. Matematica applicata

 98 l.  Cristallografia: i gruppi di
        simmetria di Bieberback (1910)
105 2.  Calcolo tensoriale: la relatività
        generale di Einstein (1915)
108 3.  Teoria dei giochi: il teorema
        minirnax di Von Neumann (1928)
112 4.  Analisi funzionale:
        l'assiomatizzazione della
        meccanica quantistica di
        Von Neumann (1932)
116 5.  Teoria delle probabilità:
        l'assiomatizzazione di Kolmogorov
        (1933)
120 6.  Teoria dell'ottimizzazione: il
        metodo del simplesso di Dantzig
        (1947)
122 7.  Teoria dell'equilibrio generale:
        il teorema di esistenza di Arrow e
        Debreu (1954)
126 8.  Teoria dei linguaggi formali: la
        classificazione di Chomsky (1957)
129 9.  Teoria dei sistemi dinamici: il
        teorema KAM (1962)
133 10. Teoria dei nodi: gli invarianti di
        Jones (1984)

139     IV. Matematica al calcolatore

145 l.  Teoria degli algoritmi: la
        caratterizzazione di Turing (1936)
148 2.  Intelligenza Artificiale:
        l'analisi degli scacchi di Shannon
        (1950)
151 3.  Teoria del caos: l'attrattore
        strano di Lorenz (1963)
153 4.  Dimostrazioni assistite: il
        teorema dei quattro colori di
        Appel e Haken (1976)
159 5.  Frattali: l'insieme di Mandelbrot
        (1980)

165     V. Problemi insoluti

166 l.  Aritmetica: il problema dei numeri
        perfetti (300 a.C.)
168 2.  Analisi complessa: l'ipotesi di
        Riemann (1859)
172 3.  Topologia algebrica: la congettura
        di Poincaré (1904)
175 4.  Teoria della complessità: il
        problema P=NP (1972)

181     Conclusione

185     Bibliografia

187     Indice dei nomi

 

 

| << |  <  |  >  | >> |

Pagina 3

Introduzione

Il mondo descritto dalle scienze fisiche e naturali è concreto e percepibile: in prima approssimazione con i sensi, e in seconda approssimazione attraverso varie loro estensioni fornite dalla tecnologia. Il mondo descritto dalla matematica è invece un mondo astratto, costituito di idee percepibili soltanto con l'occhio della mente. Con la pratica, concetti astratti quali numeri e punti hanno acquistato comunque un'oggettività tale da permettere anche all'uomo comune di farsene immagini sostanzialmente concrete, proprio come se esse appartenessero a un mondo di oggetti tanto reali quanto quelli fisici.

La scienza moderna ha però minato l'ingenua visione del mondo esterno: la ricerca ha esteso i suoi confini alle enormi grandezze del cosmo e a quelle minime delle particelle, rendendo impossibile una percezione sensoriale diretta, o anche solo tecnologicamente mediata, degli oggetti galattici o atomici, e riducendoli effettivamente a immagini matematiche. Analogamente, anche la matematica moderna ha esteso i confini della sua ricerca alle rarefatte astrazioni delle strutture e alle minuziose analisi dei fondamenti, svincolandosi completamente dalla visualizzazione.

Scienza e matematica del secolo XX sono dunque accomunate dalla difficoltà di spiegare le loro conquiste in termini di concetti classici. Ma difficoltà non significa impossibilità: e sono spesso proprio le astrazioni superficiali e sterili a essere difficili da giustificare, mentre quelle profonde e feconde affondano le loro radici in problemi e intuizioni concrete. In altre parole, la buona astrazione non è mai fine a se stessa, un'arte per l'arte, ed è invece sempre una necessità, un'arte per l'uomo.

| << |  <  |  >  | >> |

Pagina 9

Capitolo primo

Fondamenti

La matematica può venir considerata, a seconda della propria predisposizione filosofica e della propria esperienza personale, un'attività di scoperta o di invenzione.

Nel primo caso i concetti astratti di cui essa tratta si pensano dotati di una vera e propria esistenza nel mondo delle idee, che viene considerato tanto reale quanto il mondo fisico degli oggetti concreti. La scoperta richiede dunque un letterale sesto senso, che permetta di percepire gli oggetti astratti nella stessa maniera in cui i cinque sensi permettono di percepire gli oggetti concreti. E il problema fondamentale di questa percezione è ovviamente la sua verità esterna, cioè una sua adeguata corrispondenza con la supposta realtà.

Nel secondo caso le opere matematiche vengono invece considerate alla stregua di opere artistiche, che trattano di oggetti tanto immaginari quanto i protagonisti di un romanzo, o le raffigurazioni di una pittura. L'invenzione richiede dunque un letterale talento matematico, che permetta di costruire oggetti di fantasia nella stessa maniera del talento artistico. E il problema fondamentale delle produzioni di questo talento è la loro consistenza interna, cioè il poter concepire le varie parti come un tutto organico (in termini matematici: la mancanza di contraddizioni).

Scoperta o invenzione che sia, la matematica porta comunque alla luce oggetti e concetti che, al loro primo apparire, sono inusuali e non familiari. E ancora oggi alcuni aggettivi rivelano le reazioni di sorpresa o disagio che hanno accolto certi numeri al loro primo apparire: irrazionali, negativi, sordi, immaginari, complessi, trascendenti, ideali, surreali...

| << |  <  |  >  | >> |

Pagina 15

2. Anni '40: le strutture.

La teoria degli insiemi fu il culmine ottocentesco della concezione riduzionista della matematica, che attraverso l'analisi logica ridusse appunto la geometria all'analisi, l'analisi all'aritmetica, e l'aritmetica alla logica. L'analisi logica della matematica soffre però delle stesse limitazioni della critica letteraria, e cioè di interessare gli specialisti ma non gli autori e i lettori: in questo caso, i logici ma non i matematici.

Agli occhi del matematico professionista, la teoria degli insiemi aveva (e ha) infatti due ovvi svantaggi. Anzitutto, come la teoria atomica non ha mutato la percezione degli oggetti macroscopici nella vita quotidiana, cosí la riduzione degli oggetti matematici agli insiemi non ha influito sulla pratica: per esempio, per fare i conti non si pensa ai numeri interi come classi di insiemi equipotenti.

Inoltre, se i paradossi hanno preoccupato i logici, essi hanno lasciato largamente indifferenti i matematici, che vedono in genere la inconsistenza come un problema non della matematica stessa, ma delle sue presentazioni formali: nel caso specifico, della teoria degli insiemi e non della sua pratica. La teoria di Zermelo e Fraenkel è dunque stata percepita come la complicata soluzione a un problema irrilevante.

In conclusione, la teoria degli insiemi sembra aver fornito al matematico professionista due soli contributi, entrambi essenziali, ma indipendenti da particolari assiomatizzazioni. Da un lato, una teoria degli insiemi infiniti: ossia, come disse David Hilbert, quel «paradiso creato da Cantor, da cui nessuno ci potrà scacciare». Dall'altro lato, un conveniente linguaggio per la formulazione dei concetti sempre piú astratti prodotti dalla pratica moderna.

Negli anni '30 un gruppo di matematici francesi, noto sotto il nome collettivo di Nicolas Bourbaki, si propose allora di fondare la matematica in maniera piú significativa per i matematici, e trovò una soluzione in un'analisi non piú logica, ma strutturale. Il gruppo si imbarcò nel progetto infinito, e dunque mai terminato, della scrittura di un manuale che descrivesse lo stato dell'arte della matematica contemporanea: esso fu intitolato, con un ovvio riferimento a Euclide, Elementi di matematica, e il primo fascicolo uscí nel 1939.

Come appunto nell'opera euclídea, il manuale fu diviso in libri, di cui i primi sei dedicati ai fondamenti. E già il loro elenco testimonia il ridimensionamento del ruolo fondazionale della teoria degli insiemi, di cui tratta soltanto il primo libro. Negli altri cinque si considerano invece l'algebra, la topologia, le funzioni di variabile reale, gli spazi vettorialí topologici e l'integrazione.

Nel 1949 Bourbaki riassunse le sue posizioni filosofiche, ormai divenute dominanti, in un articolo dal titolo eloquente: I fondamenti della matematica per il matematico (invece che per il logico). In esso fu enunciata l'astratta affermazione che l'intera matematica contemporanea si può costruire basandosi sulla nozione di struttura, e il manuale in corso di scrittura fu presentato come la concreta dimostrazione della correttezza di questa affermazione.

L'idea fondamentale del concetto di struttura si può spiegare con un esempio. Nella teoria degli insiemi, i numeri reali vengono artificialmente definiti come insiemi di numeri interi, e le operazioni e relazioni su di essi vengono artificialmente ridotte a operazioni e relazioni su insiemi. Nell'approccio bourbakista, invece, i numeri reali e le loro operazioni e relazioni si prendono come dati, e si isolano in maniera astratta le loro proprietà.

| << |  <  |  >  | >> |

Pagina 18

3. Anni '60: le categorie.

| << |  <  |  >  | >> |

Pagina 20

La teoria delle categorie è dunque risultata essere una fondazione globale e unitaria della matematica, che contiene come casi particolari sia gli insiemi di Zermelo e Fraenkel, che le strutture di Bourbaki. Il che stimola un ulteriore processo di astrazione: come gli insiemi si possono collegare fra loro mediante funzioni, e le strutture di uno stesso tipo si possono collegare fra loro mediante funzioni che preservano quella struttura, dette morfismi, diventa possibile collegare fra loro le categorie mediante funzioni che preservano le proprietà categoriali, dette funtori.

Come gli insiemi con le funzioni, o le strutture con i morfismi, costituiscono categorie, verrebbe voglia di dire che le categorie con i funtori costituiscono la categoria delle categorie. Il problema è però che, da un punto di vista insiemistico, molte categorie costituiscono una classe propria: esse non possono dunque far parte di altre classi, e in particolare costituire gli oggetti di un'altra categoria.

| << |  <  |  >  | >> |

Pagina 22

4. Anni '80: il Lambda Calcolo.

La teoria degli insiemi ha fornito ai logici una fondazione adeguata contro i paradossi. I matematici invece, il cui lavoro quotidiano non è minimamente toccato dalla problematica dei paradossi, hanno trovato nelle strutture bourbakiste e nella teoria delle categorie fondazioni piú adeguate alla loro pratica.

Nessuno dei tre approcci è invece soddisfacente dal punto di vista degli informatici, i quali utilizzano massicciamente algoritmi e programmi che lavorano su dati, ossia funzioni che vengono applicate ad argomenti. Soltanto la teoria delle categorie tratta direttamente di funzioni, che però non vengono applicate ad argomenti, ma composte fra loro: l'informatica teorica necessita dunque di una fondazione alternativa, e l'ha trovata nel Lambda Calcolo proposto da Alonzo Church nel 1933.

L'idea di Church fu appunto di tentare un approccio alternativo ai fondamenti della matematica, parallelo alla teoria di Cantor e Frege, ma basato sul concetto di funzione invece che su quello di insieme, secondo il seguente schema: una funzione corrisponde a un insieme, un argomento di una funzione corrisponde a un elemento di un insieme, l'applicazione di una funzione a un argomento corrisponde all'appartenenza di un elemento a un insieme, e la definizione di una funzione mediante una descrizione dei valori corrisponde alla definizione di un insieme mediante una proprietà degli elementi.

La teoria ingenua degli insiemi si traduce dunque automaticamente in una teoria ingenua delle funzioni. Essa si fonda su due soli principi, che riducono le funzioni alle descrizioni dei loro valori. Anzitutto, il principio di estensionalità: una funzione è completamente deteriminata dai suoi valori, e due funzioni aventi gli stessi valori per gli stessi argomenti sono dunque uguali. Inoltre, il principio di comprensione: ogni descrizione di valori determina una funzione, e ogni funzione è determinata da una descrizione di valori.

| << |  <  |  >  | >> |

Pagina 24

Il teorema di Church e Rosser mostrò cosí che il Lambda Calcolo era una teoria singolare, allo stesso tempo basata su principi ingenui, e dimostrabilmente consistente: dunque al riparo dai paradossi, non solo attuali, ma anche potenziali. La cura sembrò però, a prima vista, piú dolorosa della malattia: il prezzo da pagare per la consistenza era l'impossibilità di definire all'interno della teoria una funzione analoga alla negazione, e píú in generale di inglobarvi la logica. In un periodo in cui il fascino del programma di riduzione dell'intera matematica alla logica era ancora forte, nonostante le sue pur evidenti difficoltà, la cosa sembrò inaccettabile, e il Lambda Calcolo non fu considerato un'adeguata fondazione della matematica.

Ma già nel 1936 Church e Stephen Kleene mostrarono che nel Lambda Calcolo era però possibile inglobare l'aritmetica. Il loro risultato si può oggi riformulare nel modo seguente: le funzioni rappresentabili nel Lambda Calcolo sono esattamente quelle descrivibili in uno qualunque dei comuni linguaggi di programmazione universali per calcolatori. Naturalmente il risultato di Church e Kleene era futuristico, poíché allora i calcolatori non esistevano, e la sua formulazione originaria non ne poteva mostrare appieno le potenzialità. Con l'avvento dei calcolatori queste divennero invece evidenti, e la teoria fu rivalutata come la fondazione adeguata per l'informatica.

In particolare, il teorema del punto fisso è divenuto la giustificazione teorica dei programmi autoreferenziali, o ricorsivi, che sono di uso comune nella programmazione. E la semantica denotazionale del Lambda Calcolo, inaugurata nel 1969 da Dana Scott, ha sviluppato tecniche che permettono di interpretare i programmi per calcolatore come veri e propri oggetti di natura matematica, mostrando cosí che l'informatica si può considerare, a buon diritto, come una delle nuove branche della matematica moderna. Per questo suo lavoro Scott ha ottenuto nel l976 il Turing Award, che è l'analogo per l'informatica della medaglia Fields o del premio Nobel.

| << |  <  |  >  | >> |

Pagina 26

Capitolo secondo

Matematica pura

Per millenni la storia della matematica è stata, sostanzialmente, la storia dei progressi nella conoscenza di entità numeriche e geometriche. Negli ultimi secoli invece, e soprattutto nel XX, sono venute alla luce nuove e disparate entità: dapprima placidamente asservite allo studio degli oggetti classici, esse hanno in seguito acquistato una loro impetuosa indipendenza, e ispirato quella che è stata chiamata una nuova età dell'oro della matematica.

Se, da un lato, la matematica moderna è dunque il prodotto di uno sviluppo che affonda le sue radici in problematiche concrete e classiche, dall'altro essa è anche la testimonianza di un'attività che trova la sua espressione in costruzioni astratte e contemporanee. Sostanzialmente, la matematica classica si riduceva a quattro aree, rispettivamente dedicate allo studio del discreto e del continuo, ossia dei numeri e delle figure: aritmetica e algebra da un lato, geometria e analisi dall'altro. Piú difficile è invece elencare le discipline della matematica moderna, che si riducono sostanzialmente allo studio delle varie strutture algebriche, topologiche e d'ordine, e alle loro combinazioni.

I pericoli di questa proliferazione, a cui abbiamo già accennato nell'introduzione, sono reali. Ma essi vengono scongiurati dalla constatazione che, al di là dell'apparente frammentazione, la matematica del secolo XX esibisce una sostanziale unità delle sue discipline. L'arcipelago della matematica moderna è infatti collegato da percorsi sotterranei, misteriosi e invisibili, che inaspettate convergenze di risultati portano alla luce, facendoli emergere e affiorare lentamente.

Simbolica di questa unità è la vicenda del teorema di Fermat, di cui parleremo a lungo. Le sue radici affondano nelle ricerche pitagoriche sui numeri interi, che culminarono nel secolo III a.C. negli Elementi di Euclide. Nel secolo III d.C. Diofanto di Alessandria iniziò uno studio delle soluzioni intere di equazioni a coefficienti interi, e ne trattò diffusamente nell' Aritmetica, un'opera in tredici libri, di cui solo sei sopravvissero. Nel seco XVII Pierre de Fermat studiò l'opera di Diofanto, e annotò sui margini della sua copia 48 osservazioni, senza dimostrazioni.

Nel secolo XVIII tutte le osservazioni di Fermat erano state dimostrate, con una sola eccezione, che divenne per questo motivo nota come l'ultimo teorema di Fermat: il fatto, cioè, che mentre esistono due quadrati di numeri interi la cui somma e un quadrato (per esempio 9 e 16, la cui somma è 25), non esistono due cubi la cui somma sia un cubo, né due potenze n-esime la cui somma sia una potenza n-esima, se n è maggiore di 2. I tentativi di dimostrazione dell'ultimo teorema di Fermat produssero, nel secolo XIX, grandi progressi nella teoria dei numeri, e la conferma del teorema per un numero sempre maggiore di esponenti, ma non una dimostrazione generale.

Questa fu ottenuta da Andrew Wiles nel 1995, attraverso un approccio indiretto, a prima vista totalmente scollegato dal problema stesso, e con l'uso di un arsenale di tecniche completamente astratte. Per la soluzione di un semplice problema numerico, dall'enunciato elementare e classico, si è dunque dovuto fare appello a una vasta parte della matematica superiore e moderna. E la vicenda è simbolica non soltanto dell'apparente continuità dinamica, diacronica e verticale di una singola area della matematica, ma anche della nascosta connessione statica, sincronica e orizzontale fra le sue aree più disparate.

| << |  <  |  >  | >> |

Pagina 28

Un'altra vicenda simbolica è costituita dallo studio del cerchio e della sfera, che sono fra gli oggetti apparentemente piú semplici studiati dalla geometria. Archimede fu il primo a scoprire, nel 225 a.C., l'esistenza di una misteriosa connessione fra alcuni loro aspetti: la circonferenza e l'area del cerchio, cosí come la superficie e il volume della sfera, sono infatti tutti legati alla stessa costante "pi greco", per il calcolo della quale vennero sviluppati nei secoli vari metodi (geometrici, algebrici e analitici).

Nonostante l'apparente semplicità di cerchio e sfera, alcuni progressi sostanziali nel loro studio dovettero attendere il secolo XIX. Anzitutto, fu necessario lo sviluppo di sofisticati metodi algebrici e analitici per dimostrare l'impossibilità del problema puramente geometrico della quadratura del cerchio (la costruzione mediante riga e compasso di un quadrato di area uguale a quella di un cerchio dato). Inoltre, metodi topologici permisero di distinguere la sfera dalle altre superfici chiuse dello spazio tridimensionale: sostanzialmente, essa è l'unica superficie che permette a ogni elastico disteso su di essa di contrarsi fino a raggiungere un solo punto. Infine, metodi differenziali permisero di mostrare che il calcolo infinitesimale si può estendere dal piano alla sfera in una sola maniera.

Alcuni degli studi fondamentali della matematica del secolo XX riguardano l' ipersfera, che è per lo spazio a 4 dimensioni ciò che il cerchio e la sfera sono per lo spazio a 2 e 3 dimensioni. Uno del piú lmportanti problemi aperti della matematica moderna che discuteremo nel seguito, detto congettura di Poincaré, chiede se valga una caratterizzazione topologica dell'iperstera analoga a quella della sfera. È già stato invece dimostrato che il calcolo infínitesimale si può estendere dallo spazio alla ipersfera in una sola maniera.

Cerchio, sfera e ipersfera sono casi particolari di sfere a n dimensioni in spazi a n + 1 dimensioni, e alcuni dei risultati piú importanti e profondi della matematica moderna, sui quali ritorneremo nel seguito sono stati ottenuti proprio considerando sfere a piú dimensioni. Per esempio, l'analogo della congettura di Poincaré è stato dimostrato per le sfere a qualunque dimensione maggiore di 3, e si sono trovati molti modi non equivalenti di estendere il calcolo infinitesimale alla sfera a 7 dimensioni.

Questi e altri risultati hanno portato alla luce un apparente paradosso: col crescere del numero di dimensioni, benché gli oggetti diventino piú difficili da visualizzare intuitivamente, essi diventano piú facili da trattare matematicamente, perché c'è piú spazio per manipolarli. Per esempio, rivoltare un guanto destro in modo da farlo diventare un guanto sinistro è facile nello spazio a quattro dimensioni, ma difficile (benché non impossibile, per un teorema di Stephen Smale del 1959) nello spazio a tre dimensioni.

| << |  <  |  >  | >> |

Pagina 44

5. Logica: il teorema di incompletezza di Gódel (1931).

Uno dei grandi successi matematici del secolo XIX fu la scoperta della geometria iperbolica: di una geometria, cioè, in cui l'assioma delle parallele è falso. I rimanenti assiomi della geometria euclidea permettono di dimostrare, data una retta e un punto fuori di essa, che esiste almeno una parallela alla retta passante per il punto (la perpendicolare alla perpendicolare). L'assioma delle parallele afferma che di parallele ne esiste una sola, e la sua negazione implica dunque che ne esista piú di una.

| << |  <  |  >  | >> |

Pagina 46

Sia per Fermat che per Descartes l'algebra era comunque subordinata alla geometria, e Newton stesso continuò a trattare, nei Principia, le orbite dei pianeti alla maniera geometrica dei Greci, e non in modo algebrico. Il cambiamento di rotta fu opera di John Wallis, che nel 1657 riformulò algebricamente due libri di Euclide, e il trattato sulle coniche di Apollonio.

Una effettiva riduzione della geometria all'algebra dovette però attendere i Fondamenti della Geometria di Hilbert, nel 1899. Egli defìní un modello algebrico della geometria euclidea, nel modo oggi usuale: un punto del piano è una coppia di numeri reali; una retta è l'insieme delle soluzioni di un'equazione di primo grado; la distanza fra due punti è definita mediante il teorema di Pitagora; e la congruenza mediante il concetto di isometria (trasformazione lineare che preserva le distanze). Non si tratta comunque soltanto di definizioni: bisogna dimostrare che una isometria preserva non soltanto le distanze ma anche gli angoli, e la dimostrazione non è banale.

Alla fine del secolo XIX la consistenza dell'intera geometria era dunque stata ridotta a quella della teoria dei numeri reali. Questo gioco di scarica-barile poteva continuare ancora, per esempio riducendo la teoria dei numeri reali a quella dei numeri interi. Anzi, la cosa era già stata fatta alcuni decenni prima da Karl Weierstrass, Georg Cantor e Richard Dedekind, il che aveva permesso a Leopold Kronecker di esclamare: «Dio ha creato i numeri interi, tutto il resto è opera dell'uomo». Ma prima o poi si sarebbe dovuta dimostrare la consistenza di qualche teoria direttamente, e con metodi talmente elementari che la loro consistenza non potesse essere messa in dubbio.

Agli albori del secolo XX, il secondo problema dí Hilbert chiese dunque di dimostrare direttamente la consistenza della teoria dei numeri, reali o interi. Una soluzione completamente inaspettata fu data nel 1931 da Kurt Gödel, il quale provò che la consistenza di una qualunque teoria che contenga quella dei numeri interi non si può dimostrare all'interno della teoria stessa. In altre parole, nessuna teoria che pretenda di fondare la matematica è in grado di autogiustificarsi, ed è invece costretta a cercare la sua giustificazione al di fuori di sé. In particolare, nessuna teoria di tal genere che sia consistente può anche essere completa, nel senso di poter dimostrare tutte le verità matematiche esprimibili nel suo linguaggio, e una delle verità che essa non può dimostrare è precisamente la propria consistenza: per questo motivo, il risultato di Gödel viene chiamato teorema di incompletezza.

L'impossibilità di provare la consistenza dì una teoria dal suo interno non esclude comunque la possibilità di dimostrazioni esterne, ma pur sempre convincenti, e non costituisce dunque l'ultima parola sul secondo problema di Hilbert. In particolare, una dimostrazione di consistenza significativa, benché ovviamente non elementare, della teoria dei numeri interi è stata data nel 1936 da Gerhard Gentzen: essa costituisce il punto di partenza della teoria della dimostrazione, che ha come scopo la ricerca di analoghe dimostrazioni per teorie sempre piú forti.

| << |  <  |  >  | >> |

Pagina 66

11. Teoria delle singolarità: la classificazione delle catastrofi di Thom (1964).

[...]

Un'estensione dei risultati precedenti, dalle curve alle superfici a n dimensioni, fu effettuata nel 1934 da Marston Morse. Egli provò che le superfici lisce sono riducibili, mediante deformazioni locali dette diffeomorfismi, a superfici lisce che hanno al piú punti singolari regolari: in tali punti la superficie è approssimata da una somma algebrica di monomi di secondo grado in ciascuna variabile, cioè da una superficie a sella, il cui tipo è determinato dal numero di monomi con segno positivo o negativo, cioe dal numero di direzioni in cui la sella è rivolta all'insú o all'ingiú.

Il teorema di Morse caratterizza completamente i punti singolari regolari, e lascia dunque aperto il problema della caratterizzazione di quelli non regolari: questi ultimi vengono detti catastrofi, perché corrispondono a biforcazioni radicali nel comportamento del sistema, e lo studio delle superici con punti singolari non regolari è l'oggetto della teoria delle catastrofi, sviluppata da René Thom.

Nel caso delle curve lisce le uniche catastrofi sono i flessi, in cui la curva è piatta perché attraversa la tangente orizzontale. Nel caso delle superfici a n dimensioni ci sono diverse possibilità, a seconda del numero di direzioni in cui la curva è piatta, detto corango, e del minimo numero di deformazioní necessarie per eliminare le irregolarità, detto codimensione: per esempio, la cubica x^3 considerata sopra ha ovviamente corango 1, e ha anche codimensione 1, perché è sufficiente aggiungerle un solo termine per eliminarne il flesso. Traendo ispirazione da un lavoro sulle cuspidi del 1947 di Hassler Withney, premio Wolf nel 1982, nel 1964 Thom congetturò che corango e codimensione sono sufficienti a classificare le catastrofi. Piú precisamente, che nel caso in cui la codimensione sia minore o uguale di 4 le catastrofi sono soltanto di sette tipi: quattro di corango 1, e cioè pieghe, cuspidi, code di rondine e farfalle; e tre di corango 2, e cioè piramidi, portafogli e funghi (figura 11). Nel caso di codimensione maggiore, le catastrofi diventano invece infinite. La congettura di Thom è stata provata da John Mather nel 1966.

L'interesse della teoria delle catastrofi sta nel fatto che essa fu uno dei primi strumenti matematici che sembrarono adatti a porre ordine nel caos, e descrivere regolarità del comportamento irregolare. Nel 1972 lo stesso Thom ne inaugurò, nell'influente libro Stabilità strutturale e morfogenesi, le applicazioni allo studio dei fenomeni piú disparati, dalla formazione degli embrioni allo scoppio delle rivoluzioni, che furono poi spinte all'estremo da Christopher Zeeman.

Da questo punto di vista applicativo la teoria delle catastrofi è stata oggi duplicemente sorpassata. Dapprima dalla teoria delle strutture dissipative e dalla termodinamica dei fenomeni irreversibili di Ilya Prigogine, che gli valsero il premío Nobel per la chimica nel 1977. E poi dalla teoria del caos e della dinamica dei sistemi instabili, delle quali parleremo in seguito.

| << |  <  |  >  | >> |

Pagina 71

12. Algebra: la classificazione dei gruppi finiti di Gorenstein (1972).

[...]

La generalità del concetto di gruppo ne rende, a un tempo, facile l'applicabilità ma difficile la caratterizzazione. Una semplificazione essenziale, compiuta da Galois, consiste nel definire la classe dei gruppi semplici, che sono i costituenti elementari dei gruppi nello stesso senso in cui i numeri primi lo sono per gli interi: si introduce cioè un'operazione di fattorizzazione di gruppi, e i gruppi semplici sono quelli che ammettono come fattori soltanto se stessi o il gruppo unitario (costituito di un solo elemento). Il problema della classificazione dei gruppi si riduce dunque a quello della classificazione dei gruppi semplici.

Il primo passo fu la classificazione dei gruppi continui di trasformazioni introdotti nel 1874 da Sophus Lie, e chiamati gruppi di Lie in suo onore. Essi possono essere definiti come quei gruppi che ammettono un sistema di coordinate locali rispetto al quale le operazioni di gruppo risultano analitiche. La teoria dei gruppi di Lie, che coinvolge già dalla sua definizione l'algebra, la topologia e l'analisi, è stata ed è fonte di problemi profondi e difficili. Uno di questi, il quinto problema di Hilbert, chiedeva se ogni gruppo localmente euclideo (che ammette cioè un sistema di coordinate locali) fosse un gruppo di Lie, e fu risolto affermativamente nel 1952 da Gleason, Montgomery e Zippin.

Benché un gruppo di Lie sia infinito, è possibile individuarne gli elementi specificando soltanto un numero finito di parametri, che si chiama dimensione del gruppo. Per esempio, il gruppo delle rotazioni del cerchio, che viene indicato sia con U(1) che con SO(2), ha dimensione 1 perché basta specificare l'angolo di rotazione. Il gruppo delle rotazioni della sfera, che viene indicato con SO(3), ha invece dimensione 3 perché bisogna specificare sia l'asse di rotazione (che può venire identificato da latitudine e longitudine) che l'angolo di rotazione.

[...]

La teoria dei gruppi di Lie è oggi il linguaggio che permette di esprimere le teorie unificate di campo della fisica delle particelle. Piú precisamente, si è scoperto che le forze elettromagnetica, nucleare debole e nucleare forte rispettano particolari simmetrie di rotazione di fase dei campi, di scambio di carica delle particelle e di scambio di colori dei quark, e che le proprietà di queste simmetrie sono descritte dai gruppi di Lie U(1), SU(2) e SU(3). Le rispettive dimensioni di questi gruppi sono 1, 3 e 8, e cor- rispondono al numero di bosoni che trasmettono le tre forze: 1 fotone, 3 bosoni deboli e 8 gluoni.

[...]

Il progresso verso l'unificazione finale delle forze fisiche passa dunque attraverso la determinazione di un appropriato gruppo di Lie che contenga il prodotto U(1) x SU(2) x SU(3). Il minimo gruppo semplice di Lie che soddisfa matematicamente al requisito è SU(5), a 24 dimensioni, ma non sembra appropriato fisicamente: la grande unificazione basata su di esso prevede infatti fenomeni dubbi quali una decadenza troppo veloce del protone e l'esistenza di monopoli magnetici. Il gruppo su cui oggi si punta per la cosiddetta teoria del tutto, che comprenda anche la gravità, è invece una doppia coppia del massimo gruppo sporadico E8: avendo dimensione doppia di 248, esso prevede l'esistenza di 496 bosoni di campo, di cui però si conoscono attualmente soltanto i 12 già citati.

| << |  <  |  >  | >> |

Pagina 77

13. Topologia: la classificazione delle superfici tridimensionali dí Thurston (1982).

Uno dei grandi successi matematici del secolo XIX fu la classificazione delle superfici bidimensionali chiuse da un punto di vista topologico: considerandole cioè come se fossero involucri di gomma che si possono deformare a piacere, purché non le si strappi. Da questo punto di vista astratto un pallone gonfio e uno sgonfio sono la stessa superficie, benché dal punto di vista esterno uno possa sembrare una sfera, e l'altro un foglio ripiegato o accartocciato. Invece un pallone e un salvagente sono superfici diverse, perché non si può deformare il pallone per farlo diventare un salvagente senza romperlo.

La classificazione fa un uso essenziale del concetto di superficie non orientabile, scoperto nel 1858 da Johann Listing e Augustus Möbius. L'esempio piú noto è la cosiddetta striscia di Möbius, che già appare in mosaici romani del secolo III: si prende una striscia rettangolare di carta, le si fa fare un mezzo giro nel senso della lunghezza, e si incollano poi i due lati corti fra loro (se non si fa fare il mezzo giro, si ottiene un cilindro). La striscia di Möbius ha un solo lato e un solo bordo (figura 12). Inoltre non è orientabile, nel senso che su di essa non si possono distinguere i versi orario e antiorario (o le mani destra e sinistra): una trottola che giri in un certo verso e percorra tutta la striscia, quando ritorna al punto di partenza si ritrova a girare nella direzione opposta.

I lavori di Riemann nel 1857, Möbius nel 1863 e Felix Klein nel 1882 portarono nel loro complesso alla dimostrazione che ogni superficie bidimensionale chiusa è equivalente, da un punto di vista topologico, a esattamente una delle superfici di due famiglie infinite. La prima famiglia consiste della sfera, e delle supeffici (orientabili) che si ottengono aggiungendo a essa un numero finito di maniglie (cilindriche): un caso particolarmente interessante è la sfera con una sola maniglia, che equivale alla superficie a ciambella chiamata toro (figura 13). In particolare, le superfici bidimensionali orientabili sono completamente determinate dal numero dei loro buchi (figura 14). La seconda famiglia consiste delle superfici (non orientabili) che si ottengono dalla sfera tagliando via un numero finito di cerchi, e sostituendoli con altrettante strisce di Möbius (il che si può fare, perché la striscia ha un solo bordo): due casi particolarmente interessanti sono le sfere a cui sono state applicate una o due strisce, che equivalgono rispettivamente alle superfici chiamate piano proiettivo e bottiglia di Klein (figura 15).

Ci sono tre tipi di geometrie possibili per una superficie bidimensionale: quella euclidea solita, quella iperbolica e quella sferica (quest'ultima differisce sostanzialmente dalle altre due, perché in essa non ci sono rette parallele: due cerchi massimi si incontrano sempre). Dal punto di vista della geometria a esse associata, le superfici delle due famiglie si dividono nel modo seguente: alla sfera e al piano proiettivo si può assegnare una geometria sferica; al toro e alla bottiglia di Klein una geometria euclidea; e a tutte le rimanenti superfici una geometria iperbolica.

| << |  <  |  >  | >> |

Pagina 92

Capitolo terzo

Matematica applicata

La matematica, come Giano, ha due facce: la prima è rivolta verso l'interno dell'uomo, al mondo delle idee e delle astrazioni, e la seconda è rivolta verso l'esterno, al mondo degli oggetti e delle concretezza. La prima faccia rappresenta il lato puro della matematica, in cui l'attenzione si concentra disinteressatamente sui suoi enti, al fine di conoscerli per ciò che sono. La seconda faccia costituísce la parte applicata, in cui l'attenzione verso gli stessi enti è interessata, allo scopo di poterli applicare per ciò che possono fare.

Le applicazioni della matematica hanno costituito una caratteristica costante della sua storia, dai tempi degli Egizi e dei Babilonesi alla rivoluzione industriale, e ciascuna branca della matematica classica è stata, ai suoi inizi, stimolata da problemi pratici: ragionieristici l'aritmetica, agricoli la geometria, e fisici l'analisi. In seguito queste aree sono state continuamente stimolate da motivazioni pragmatiche e utilitaristiche, che hanno contribuito al loro sviluppo anche teoretico, con ricadute spesso inaspettate.

La matematica del secolo XX in questo non fa eccezione, e molte sue nuove branche sono nate proprio grazie alla sollecitazione esterna, per risolvere problemi legati al mondo reale. Alcune di queste motivazioni derivano da aree scientifiche la cui fertilità è sperimentata, quali la fisica: essa ha ispirato, se non la nascita, certamente la crescita del calcolo tensoriale, dell'analisi funzionale e della teoria dei nodi, che sono essenziali per la formulazione della relatività generale, della meccanica quantistica e della teoria delle stringhe.

Altre motivazioni derivano invece da aree che solo nel secolo XX sono diventate scientifiche, appunto quando la scoperta di adeguati strumenti matematici ha permesso di trattare e risolvere alcuni dei loro problemi fondamentali. Esempi tipici sono l'economia e la biología: per risolvere problemi della prima sono nate le teorie dei giochi, dell'equilibrio generale e dell'ottimizzazione; e problemi della seconda, considerati a lungo inaccessibili, si possono oggi affrontare mediante la teoria dei nodi.

Gli strumenti matematici a cui abbiamo appena accennato, e su cui torneremo piú diffusamente, toccano vette di sofisticazione tecnica. Ma questa non è affatto necessaria affinché un argomento matematico abbia effetti dirompenti, purché la sua mancanza sia compensata da sofisticazione filosofica. Prima di procedere oltre vogliamo appunto mostrare, con tre esempi relativi alle tre aree appena citate, come anche la matematica piú elementare possa essere sufficiente, se usata in maniera oculata, per risolvere significativi problemi fondazionali delle scienze.

Il primo di questi problemi riguarda la nozione di realtà fisica, che fu messa in forse dalla scoperta della meccanica quantistica, e piú in particolare dalla descrizione dei fenomeni subatomici in termini di funzione d'onda. A causa delle sue difficoltà di interpretazione, Niels Bohr propose di considerare la teoria come la descrizione non di ipotetiche particelle fisiche, ma soltanto delle risultanze di esperimenti sugli apparati di misura: secondo Bohr la nozione di realtà, che si era sviluppata storicamente per la descrizione del mondo macroscopico, cessava di aver senso a livello microscopico.

Questa interpretazione idealista della nuova fisica incontrò naturalmente profonde resistenze, in particolare da parte di Albert Einstein. Egli continuò a pensare per tutta la vita che fosse possibile trovare una descrizione realista dei fenomeni subatomici, della quale la meccanica quantistica sarebbe risultata soltanto un'approssimazione, e propose nel 1935 un famoso esperimento di pensiero, detto di Einstein, Podolski e Rosen dal nome dei suoi tre autori, che mostrava l'incompletezza della meccanica quantistica.

Nel 1964 John Bell trovò una versione dell'esperimento che si poteva verificare praticamente, e le cui risultanze furono inaspettate.

[...]

Un semplice calcolo di aritmetica elementare ha dunque mostrato che l'ipotesi del realismo ingenuo è in contraddizione con le risultanze sperimentali. E versioni piú sofisticate del teorema di Bell, confermate da famosi esperimenti di Alain Aspect nel 1982, dimostrano che, benché sia possibile interpretare realisticamente la meccanica quantistica, questo non si può fare mantenendo intatta la concezione della realtà che abbiamo a livello macroscopico. In particolare, non si può continuare a supporre che oggetti separati nello spazio non possano interagire istantaneamente, e si deve quindi postulare l'esistenza di connessioni olistiche, che non fanno parte del bagaglio culturale occidentale.

Il secondo problema fondazionale che affrontiamo riguarda la nozione di scelta sociale fra piú alternative, a partire dalla conoscenza delle preferenze individuali. Il problema sorge nelle situazioni piú svariate: dalla scelta dei candidati in un'elezione politica, a quella di un piano economico da parte di un consiglio di amministrazione.

[...]

L'ultimo problema fondazionale che consideriamo riguarda la nozione di autotiproduzione, caratteristica degli organismi viventi. Nel 1951 John von Neumann, sviluppando la teoria degli automi cellulari, si pose il problema di costruire una macchina in grado di autoriprodursi, e lo risolse matematicamente nel seguente modo, ispirandosi a una tecnica usata in teoria della computabilità.

| << |  <  |  >  | >> |

Pagina 116

5. Teoria delle probabilità: l'assiomatizzazione di Kolmogorov (1933).

I primi problemi di natura probabilistica sorsero dalla considerazione di giochi d'azzardo, in particolare legati ai dadi. Uno non banale si trova citato nella Summa di Luca Pacioli, del 1494: se in un gioco la vittoria si ottiene quando uno di due giocatoti raggiunge per primo n punti, ma il gioco viene interrotto quando essi ne hanno rispettivamente raggiunti p e q, come deve essere divisa la posta fra loro?

Il problema fu discusso da Cardano nel Libel de ludo aleae, del 1526, in cui è fra l'altro esplicitamente enunciata la regola che il calcolo della probabilità congiunta di due eventi indipendenti si ottiene moltiplicando le loro probabilità individuali.

La corrispondenza sul problema tra Blaise Pascal e Pierre de Fermat, nel 1654, segna la data di nascita ufficiale della teoria delle probabilità. La soluzione richiese alcune proprietà del cosiddetto triangolo di Pascal, ovvero dei coefficienti dello sviluppo binomiale: si tratta infatti di calcolare le probabilità di un giocatore di vincere tutti i rimanenti punti, tutti meno uno, tutti meno due, e cosí via, fino al punteggio minimo che, sommato ai punti che già ha, gli pennette di vincere la partita.

Nel 1656 Christian Huygens pubblicò la soluzione di Pascal, e introdusse il concetto di aspettativa, che è quanto ci si può aspettare di vincere in media giocando un gioco piú volte, e corrisponde a quanto si dovrebbe essere disposti a pagare per partecipare al gioco. Per Huygens una misura dell'aspettativa di guadagno in una data situazione era il prodotto del guadagno ottenibile per la probabilità di ottenerlo; e una misura dell'aspettativa di guadagno totale era la somma delle aspettative di guadagno per ogni possibile situazione.

| << |  <  |  >  | >> |

Pagina 120

6. Teoria dell'ottimizzazione: il metodo del simplesso di Dantzig (1947).

Fattori contrapposti ma convergenti hanno portato, nella prima metà del secolo XX, allo sviluppo della teoria della programmazione economica. In Unione Sovietica la pianificazione fu una conseguenza teorica della nascita del comunismo, e si concretizzò nella pratica dei piani quinquennali. Negli Stati Uniti essa divenne invece una necessità pratica dello sviluppo del capitalismo, e partorí la teoria della ricerca operativa per la gestione di grandi imprese.

Fu soprattutto durante lo sforzo bellico della seconda guerra mondiale che emersero problemi di natura tecnica, i cui tentativi di soluzione avrebbero portato alla costruzione dei calcolatori da un lato, e alla programmazione lineare dall'altro. Quest'ultima, in particolare si propone di trovare la migliore allocazione di un certo numero di risorse, secondo un determinato criterio di ottimizzazione: l'aggettivo «lineare» si riferisce alla caratteristica essenziale del problema, che è di imporre vincoli fra le risorse espressi in forma di disequazioni lineari, e di assegnare un criterio di ottimizzazione espresso in forma di equazione lineare.

| << |  <  |  >  | >> |

Pagina 122

7. Teoria dell'equilibrio generale: il teorema di esistenza di Arrow e Debreu (1954).

Nel 1776, lo stesso anno della rivoluzione borghese americana, l'economista scozzese Adam Smith pubblicò il trattato Sulla ricchezza delle nazioni. Per giustificare il liberismo del laissez faire, egli introdusse la finzione retorica di una «mano invisibile» che guiderebbe il comportamento individualistico degli agenti economici verso fini da essi non previsti, e che risulterebbero essere socialmente utili. Purtroppo, la giustificazione del ragionamento si basava su un circolo vizioso, condensato nell'ottimistica massima: «tutto ciò che c'è, è giusto».

I primi tentativi di fondare una scienza sulla filosofia economica di Smith dovettero attendere il secoli XIX. Nel 1838 Antoine-Aupustine Cournot introdusse l'uso degli strumenti del calcolo infinitesimale, dalle funzioni alle derivate per descrivere i concetti fondamentaii dell'economia. E nel 1874 Léon Walras stabilì un parallelo fra economia e meccanica, in cui la legge del mercato e l'equilibrio economico venivano considerati gli analoghi della legge della gravitazione e dell'equilibrio meccanico: un parallelo esteso a fine secolo da Vilfredo Pareto, che considerò i soggetti economici individuali come gli analoghi delle particelle.

In particolare, Walras enunciò una teoria che sostituiva all'ineffabile mano invisibile di Smith l'interazione tra domanda e offerta, e congetturava che lo sviluppo del mercato tendesse naturalmente verso un loro equilibrio. Matematicamente, si tratta di esprimere per ciascuna merce la domanda e l'offerta in funzione dei prezzi e delle disponibilità di tutte le merci, e di imporre che le differenze fra domanda e offerta siano sempre nulle: in questo caso, di ogni merce verrebbe prodotta esattamente la stessa quantità che viene venduta. I problemi da risolvere sono: anzitutto, l' esistenza e l' unicità di un equilibrio, cioè di un sistema di prezzi che soddisfa tutte le equazioni; inoltre, la convergenza automatica del sistema verso l'equilibrio, in base alla legge della domanda e dell'offerta, secondo cui i prezzi salgono quando la domanda cresce, e scendono quand'essa diminuisce; infine, la stabilità dell'equilibrio, nel senso che se anche il sistema se ne discosta momentaneamente, tende comunque a ritornarvi.

[...]

Naturalmente, per poter trarre dal teorema di esistenza dell'equilibrio conclusioni politiche, che rivendichino in qualche modo il liberismo alla Adam Smith, sarebbe necessario dimostrarlo in maniera più generale che non nella formulazione semplificata di Arrow e Debreu: in particolare, in una situazione in cui i mercati interagiscono fra loro, e la variazione del prezzo di ciascuna merce dipende (per esempio, in maniera lineare) dall'eccesso di domanda di tutte le merci, e non soltanto di quella in questione.

Purtroppo per il capitalismo, in queste condizioni piú generali un mercato tende autonomarnente verso la situazione di equilibrio soltanto nel caso, piuttosto ristretto, di due soìe merci. Nel 1960 Herbert Scarf ha dimostrato che bastano invece tre sole merci a far sí che il sistema possa essere globalmente instabile, e non risulti affatto guidato dalla fantomatica mano invisibile. E nel 1972 Hugo Sonnenschein ha dimostrato che l'eccesso di domanda globale di un mercato può assumere i valori di una qualunque funzione continua: gli equilibri, cioè gli zeri della funzione, possono dunque non esistere; e se anche esistono, non è detto che il mercato vi tenda necessariamente, o vi ritorni automaticarnente quando se ne allontana.

Se una conclusione politica si può trarre da questi sviluppi matematici, essa è dunque che la legge del mercato non sembra affatto adeguata a condurlo in una condizione di equilibrio, e che solo la pianificazione può farlo: con buona pace di Adam Smith e dei suoi epigoni di fine Novecento, da Margaret Thatcher a Ronald Reagan.

| << |  <  |  >  | >> |

Pagina 126

8. Teoria dei linguaggi formali: la classificazione di Chomsky (1957).

Uno dei piú significativi punti di svolta della linguistica moderna fu il Corso di linguistica generale di Ferdinand de Saussure, tenuto negli anni fra il 1906 e il 1911, e pubblicato postumo nel 1916. In esso venne delineato un approccio strutturale alle lingue naturali, contrapposto agli studi storici, filologici e comparati in voga fino ad allora. Saussure vedeva il linguaggio come un sistema costituito di due parti: da un lato, una struttura fissa, sociale e immutabile, di regole per la manipolazione di segni (sonori o scritti); dall'altro lato, un uso variabile, individuale e creativo, della struttura per l'espressione dei significati.

Le idee di Saussure indicarono la possibilità di uno studio matematico della parte strutturale della linguistica, e piú in generale delle scienze umane: egli infatti precorse e ispirò lo strutturalismo, che ebbe come scopo la ricerca di strutture profonde nelle manifestazioni del vissuto umano, e si concretizzò nell'antropologia di Claude Lévi-Strauss, la psicoanalisi di Jacques Lacan, e la psicologia di Jean Piaget.

Dal canto suo, anche la concezione assiomatica e formalista della matematica portò, naturalmente e indipendentemente, a idee parallele a quelle di Saussure: cioè, che l'attività linguistica si possa ridurre alla generazione di sequenze di simboli secondo regole formali, e che i segni siano legati ai significati in maniera convenzionale e arbitraria.

[...]

Rimaneva da trattare il caso dei linguaggi umani. A questo si dedicò nel 1957 il linguista Noam Chomsky, che nelle Strutture sintattiche compí i primi passi di un lavoro che avrebbe dovuto portare alla descrizione completa di una grammatica di Thue per l'inglese: un programma che non è mai stato completato, e la cui difficoltà sembra aver indicato una insufficienza strutturale dell'approccio puramente matematico allo studio del linguaggio naturale.

Il lavoro di Chomsky portò comunque a un risultato fondamentale per la teoria dei linguaggi formali, e cioè a una loro classificazione in base al tipo di produzioni grammaticali permesse nella loro grammatica.

| << |  <  |  >  | >> |

Pagina 133

10. Teoria dei nodi: gli invarianti di Jones (1984).

Secondo la leggenda, a Gordio di Frigia (oggi in Turchia) il carro del re Mida era legato al suo giogo da un nodo tanto stretto e complicato, che si diceva che colui che fosse riuscito a scioglierlo sarebbe divenuto re del mondo intero. Alessandro Magno giunse a Gordio nel 333 a.C., e dopo alcuni tentativi infruttuosi tagliò il nodo con la spada. Naturalmente, il problema rimase insoluto: la soluzione di un nodo richiede infatti che esso sia deformato senza strapparlo, ed è dunque di natura topologica.

Nel 1848 Johann Listing, studente di Gauss, coniò il nome topologia e pubblicò il primo libro sull'argomento, una buona parte del quale era appunto dedicata allo studio dei nodi, cioè delle curve chiuse nello spazio (figura 28). In quanto curve, i nodi non sono altro che superfici a una sola dimensione: è dunque naturale osservarli da un punto di vista topologico, come se fossero fatti di sottilissimi spaghi di gomma con le estremità unite, e cercare di ciassificarli come hanno fatto Riemann, Möbius e Klein per le superfici a due dimensioni, e Thurston per quelle a tre dimensioni.

In linea di principio, esiste un collegamento fra la teoria dei nodi e la teoria delle superfici. Dato un nodo, si può infatti immaginare il suo supporto non come una curva astratta e matematica, la cui sezione è ridotta a un punto, ma come un tubo solido e fisico, la cui sezione è un cerchio. Considerare la superficie bidimensionale del tubo non porta lontani, perché da un punto di vista topologico essa è sempre equivalente a un toro, per qualunque nodo. Si può però considerare la superficie tridimensionale che è il calco del tubo, ossia l'intero spazio meno il tubo stesso (interno compreso): la struttura del nodo diventa allora la struttura dei buchi di questa superficie, e allo studio di questa si possono applicare tutti gli strumenti topologici classici.

Questo approccio è però molto indiretto, e la teoria dei nodi si è dedicata ad assegnare loro direttamente degli invarianti che, come dice il nome, non cambiano quando il nodo viene assoggettato a deformazioni topologiche, ossia quando lo spago di gomma di cui il nodo è costituito viene tirato o spinto, senza romperlo. Molti di questi invarianti si possono implicitamente dedurre dalla superficie associata, ma il problema è definirne di espliciti che si possono ottenere direttamente dalla figura del nodo stesso.

Il piú semplice invariante che si possa immaginare è il numero che conta quante volte lo spago si interseca, quand'esso è deposto su un piano: naturalmente, deformazioni del nodo possono cambiare tale numero, per esempio facendogli fare giri inutili su se stesso, e per avere un invariante si deve allora prendere il minimo numero necessario per rappresentare il nodo dato. Questo però rende quasi inutile l'invariante, perché per polerlo calcolare bisogna, in pratica, già sapere che tipo di nodo si sta considerando.

[...]

Nel 1984 Vaughan Jones definí come invariante un nuovo tipo di «polinomio» (tra virgolette, perché gli esponenti della variabile possono anche essere negativi), che tiene anche conto del verso in cui le intersezioni avvengono, e permette dunque di distinguere fra loro i due trifogli: i loro «polinomi» sono infatti, rispettivamente,

-x^4 + x^3 + x
e
-1/x^4 + 1/x^3 + 1/x

Ai suoi «polinomi» Jones arrivò in maniera indiretta, studiando le algebre di Von Neumann, e in seguito egli scopri un ulteriore inaspettato collegamento con la meccanica statistica: per questi risultati, oltre che per la fecondità dimostrata dai suoi invarianti, Jones ottenne la medaglia Fields nel 1990.

Nonostante questi sviluppi, una classificazione completa dei nodi non è ancora stata trovata. In particolare, non si è ancora trovato un invariante completo, che permetta cioè di distinguere fra loro tutti i nodi che sono effettivamente diversi (il migliore invariante attuale è dovuto a Maxim Kontsevich, e gli ha fruttato la medaglia Fields nel 1998). Anche in questo stato incompleto, le applicazioni della teoria dei nodi sono comunque estremamente significative.

Per cominciare dalla fisica, nel 1867 lord Kelvin propose una teoria secondo cui gli atomi erano nodi nell'etere, detti atomi di vortice, analoghi alle volute del fumo nell'aria. L'idea, apparentemente balzana, si basava su un teorema di Hermann Helmholtz secondo il quale un vortice in un fluido perfetto, una volta creato, si mantiene indefinitamente. Kelvin fu ispirato da esperimenti di Peter Tait con anelli di fumo, che rimbalzavano elasticamente ed esibivano interessanti modi di vibrazione. Il vantaggio di questa teoria era che i nodi venivano tenuti insieme da puri legami topologici, senza che ci fosse bisogno di far intervenire forze atomiche specifiche. La proposta stimolò uno studio decennale dei nodi da parte di Tait, e produsse una tavola abbastanza completa e accurata dei nodi aventi fino a 10 intersezioni, ma la teoria di Kelvin fu abbandonata quando il modello di Bohr, che vedeva l'atomo come un sistema solare in miniatura, prese il sopravvento.

I nodi sono oggi di attualità grazie alla teoria delle stringhe (dall'inglese strings, «corde»), che dovrebbero essere i costituenti ultimi della materia, e di cui le particelle elementari sarebbero modi di vibrazione in spazi multidimensionali. In realtà, ci sono varie teorie delle stringhe: nella piú semplice le stringhe sono aperte e unidimensionali, come pezzetti di spago con quark attaccati alle estremità, ma in altre possono essere chiuse, appunto come i nodi di cui abbiamo parlato. In teorie piú recenti, poi, le stringhe unidimensionali sono sostituite da membrane pluridimensionali, aperte o chiuse.

Molte delle idee matematiche della teoria delle stringhe hanno la loro radice nei pirotecnici lavori di Edward Witten, che hanno profondamente influenzato la matematica negli ultimi anni e gli sono valsi la medaglia Fields nel 1990. Witten ha trovato insospettate relazioni della teoria delle stringhe con le aree piú disparate della matematica: per esempio, il mostro di Fischer-Griess in teoria dei gruppi, i polinomi di Jones in teoria dei nodi, e gli spazi esotici di Donaldson in topología risultano tutti essere aspetti di particolari teorie topologico-quantistiche di campo, rispettivamente a 2, 3 e 4 dimensioni.

[...]

Un tipo diverso di applicazione della teoria dei nodi è lo studio della struttura del DNA, che consiste di un lungo filamento di geni ripiegato su se stesso: una catena di circa un metro di lunghezza, che risiede nel nucleo di una cellula, del diametro di 5 milionesimi di metro (piú o meno come se un filo di 200 chilometri fosse ripiegato in un pallone da calcio). Quando il DNA si replica, si divide in due copie identiche: il problema è capire come questo possa avvenire in maniera efficiente, visto che già l'analoga divisione dei fili che compongono una corda produce complicati annodamenti. Mentre gli invarianti di Alexander non erano in grado di affrontare i ripiegamenti del DNA, gli invaríanti di Jones hanno invece già prodotto risultati interessanti anche in questo campo.

| << |  <  |  >  | >> |

Pagina 139

Capitolo quarto

Matematica al calcolatore

Il calcolatore sta cambiando sostanzialmente la vita quotidiana, non solo dell'uomo comune, ma anche del matematico. Come spesso avviene per la tecnologia, molti cambiamenti sono per il peggio, e le applicazione matematiche del calcolatore non fanno eccezione: per esempio, quand'esso viene usato come un idiot savant, nell'affannosa e futile ricerca di numeri primi sempre piú grandi. Per la cronaca, il record a fine Novecento era 2^6972593 - 1, un numero di circa due miliardi dì cifre.

[...]

Anzitutto, si deve subito dire che l'eventuale influenza del calcolatore sulla matematica sarebbe comunque soltanto un favore restituito. Se infatti è vero che spesso le teorizzazioni scientifiche seguono le realizzazioni tecnologiche, in questo caso è avvenuto esattamente il contrario: la costruzione dei primi calcolatori elettronici fu infatti il punto di arrivo di uno sviluppo matematico durato un intero secolo, e consistente di tre tappe sostan- ziali.

La prima idea fondamentale fu introdotta nel 1854 da George Boole, nel famoso libro Le leggi del pensiero. In esso era descritta quella formulazione algebrica del comportamento semantico delle piú semplici particelle linguistiche, quali la congiunzione e la negazione, che oggi viene chiamata algebra booleana. Il programma di trattare in forma matematica le leggi che regolano il pensiero fu proseguito da Frege e Russell, che lo estesero con successo all'intera logica. E l'Intelligenza Artificiale del dopoguerra ha cercato, per ora con limitati successi, di estendere ulteriormente la formalizzazione del pensiero, anche al di fuori dell'ambito logico e razionale.

La seconda, e sostanziale, idea fu introdotta da Alan Turing nel 1936. Egli partí proprio dal calcolo logico di Frege e Russell, e dimostrò che non esiste un modo per decidere, data una formula del calcolo, se essa sia valida oppure no: in altre parole, è impossibile meccanizzare la semantica del ragionamento logico, in un modo analogo a quanto si era fatto per la sua sintassi. Per dimostrare questo risultato di impossibilità, Turíng introdusse la nozione di una macchina astratta in grado di eseguire tutti i possibili compiti formali, e mostrò che essa non era in grado di risolvere il problema della decisione. Volendo descrivere oggi la macchina di Turing, basta dire semplicemente che essa era il progetto teorico di un calcolatore universale moderno.

Per realizzare fisicamente una tale macchina era però necessaria un'ultima idea, che nacque dalla collaborazione tra un neurofisiologo e un matematico: Warren McCulloch e Walter Pitts. Poiché si trattava di fornire alla macchina di Turing un «cervello» in grado di guidarla nell'esecuzione dei suoi compiti, nel 1943 essi proposero un modello astratto di sistema nervoso, basato su una semplificazione di quello umano, e mostrarono che lo si poteva sintetizzare mediante fili elettrici, le cui connessioni prendono il posto dei neuroni, e in cui il passaggio o meno di una corrente elettrica prende il posto della presenza o assenza di una risposta sinaptica. E ciò che le reti neuronali potevano realizzare risultò essere esattamente l'algebra booleana.

Il calcolatore elettronico non è altro che la realizzazione pratica del sistema composto dalla macchina di Turing e dalla rete neuronale di McCulloch e Pitts: quest'ultima fornisce alla prima un cervello in grado di eseguire le decisioni logiche piú elementari, grazie al quale la macchina è in grado di effettuare tutti i compiti meccanici possibili, che non comprendono però le decisioni che richiedono una logica superiore.

| << |  <  |  >  | >> |

Pagina 181

Conclusione

Giunti al termine del nostro percorso attraverso la matematíca del '900, non ci rimane altro da fare che ricapitolarne le tappe. La natura diacronica e di collage dell'esposizione, peraltro annunciata, richiede forse un approccio complementare, che isoli dalla trama del tessuto i principali fili. Li riproponiamo qui sotto forma di tabelle ricapitolative.

Problemi e congetture.

Anzitutto, sono stati i problemi e le congetture ad averci guidato nella storia della ricerca delle loro soluzioni, e ricordiamo qui i piú importanti:

300 a.C.
     Euclide      numeri perfetti
1611 Keplero      configurazioni di sfere
                  di massima densità
1637 Fermat       soluzioni intere di
                  x" + y" = z"
1640 Fermat       primi del tipo 2^2^n + 1
1742 Goldbach     interi pari come somme
                  di due primi
1847 Plateau      superfici minimali
1852 Guthrie      colorazione di carte con
                  quattro colori
1859 Riemann      zeri della funzione ...
1883 Cantor       ipotesi del continuo
1897 Mertens      limite della funzione M
                  di Möbius
1902 Burnside(I)  gruppi periodici
                  finitamente generati
1904 Poincaré     caratterizzazione dell'
                  ipersfera
1906 Burnside(II) gruppi periodici di
                  ordine dispari
1922 Mordell      infinite soluzioni delle
                  equazioni diofantee
1928 Hilbert      decisione della logica
                  del prim'ordine
1933 Robbins      assiomatizzazione delle
                  algebre booleane
1949 Weil         ipotesi di Riemann su
                  campi finiti
1955 Taniyama     parametrizzazione delle
                  curve ellittiche
1962 Shafarevich  riduzioni di equazioni
                  modulo numeri primi
1972 Cook, Karp e Levin
                  P = NP
1979 Conway e Norton
                  Chiaro di Luna

Una menzione separata richiedono invece i problemi di Hilbert del 1900, che sono stati uno dei due motivi conduttori della nostra esposizione, e di cui abbiamo citato i seguenti:

primo   ipotesi del continuo
secondo consistenza dell'analisi
terzo   scomposizione del tetraedro
quarto  geodetiche in varie geometrie
quinto  gruppi localmente eucludei e di
        Lie
sesto   assiomatizzazione della
        probabilità e della fisica
settimo trascendenza di e^pi e 2^2^0.5
ottavo  ipotesi di Riemann, congettura di
        Goldbach
decimo  soluzioni delle equazioni
        diofantee
diciottesimo
        gruppi cristallografici, problema
        di Keplero
diciannovesimo
        analiticità delle soluzioni di
        problemi variazionali
ventesimo
        esistenza delle soluzioni di
        problemi variazionali
ventitreesimo
        calcolo variazionale


 

| << |  <  |  >  | >> |

Riferimenti


    Bibliografia

    Citiamo anzitutto una serie di testi a livello
espositivo, che possono integrare utilmente la nostra
trattazione:

SERGE LANG, La bellezza della matematica, 1985
    (Bollati Boringhieri, 1991).
JEAN DIEUDONNÉ, L'arte del numeti, 1987 (Mondadori, 1989).
KEITH DEVLIN, Dove va la matematica?, 1988
    (Bollati Boringhieri, 1994).
PETER TANNENBAUM e ROBERT ARNOLD, Excursions in Modern
    Mathematics, Prentice Hall, 1995.
IAN STEWART, From here to Infinity: a Guide to Today's
    Mathematics, Oxford Uníversity Press, 1996.
JOHN CASTI, Five Golden Rules: Great Theories of
    20th-Century Mathematics, and Why They Matter, Wiley,
    1996.
Quaderni di «Le Scienze»:
    Matematica e calcolatore (n. 14, marzo 1984)
    Numeri, caso e sequenze (n. 45, dicembre 1988)
    Logica (n. 60, giugno 1991)
    La matematica della complessità (n. 67, settembre 1992)
    Modelli matematici (n. 81, dicembre í994)
    Matematica computazionale (n. 84, giugno 1995)
    Insiemi, gruppi, strutture (n. 92, ottobre 1996)
    Caos, complessità e probabilità (n. 98, ottobre 1997).
«The Mathematical Intelligencer», trimestrale di
    divulgazione matematica della Springer Verlag New York
    (175 Fifth Avenue, New York, NY 10010, Usa).
«Lettera Matematica Pristem», trimestrale di divulgazione
    matematica della Springer Verlag Italia
    (Via Podgora 4, 20122 Milano).

    Coloro che abbiano una conoscenza piú approfondita della
matematica, potranno invece consultare:

MORRIS KLINE, Il pensiero matematico, 1972 (Einaudi, 1991),
    capitoli XLIII-LI.
FUIX BROWDER (a cura di), Mathematical Developments Arising
    from Hilbert Problems, American Mathematical Society,
    1976.
PAUL HALMOS, Has Progress in Mathematics Slowed Down?, in
    «Mathematical American Association Monthly», (1990),
    561-88.
CARLES CASACUBERTA E MANUEL CASTELLET (a cura di),
    Mathematical Researcb Today and Tomorrow: Viewpoints of
    Seven Fields Medalists, Springer Verlag, 1992.
JEAN-PAUL PIER (a cura di), The Development of Mathematics,
    1900-1950, Birkauser, 1994.
JEAN-MICHEL KANTOR, Hilbert's Problems and Their Sequel, in
    «Mathematical Intelligencer», 18 (1996), pp. 21-30.
MICHAEL MONASTYRSKY, Modern Mathematics in the Light of the
    Fields Medals, AK Peters, 1997.
MICHAEL ATIYAH e DANIEL IAGOLNITZER (a cura di), Fields
    Medallists' Lectures, World Scientific, 1997.
UMBERTO BOTTAZZINI, Teoremi e congetture, in «Storia del
    pensiero filosofico e scientifico», Volume 8, Garzanti,
    1996, pp. 115-44.
STEPHEN SMALE, Mathematical Problems for the Next Century,
    in «Mathematical Intelligencer», 20 (1998), pp. 7-15.
JEAN-PAUL PIER (a cura di), The Development of Mathematics,
    1950-2000, Birkauser, 2000.
VLADIMIR ARNOL'D, MICHAEL ATIYAH, PETER LAX e BARRY MAZUR
    (a cura di), Mathematics Tomorrow, Intemational
    Mathematical Union, 2000.


 

| << |  <  |