Autore Paolo Zellini
Titolo La matematica degli dèi e gli algoritmi degli uomini
EdizioneAdelphi, Milano, 2016, Piccola Biblioteca 696 , pag. 262, ill., cop.fle., dim. 10,5x17,5x1,8 cm , Isbn 978-88-459-3102-4
LettoreGiorgia Pezzali, 2017
Classe matematica , storia della scienza












 

| << |  <  |  >  | >> |

Indice


    Introduzione                                           11

 1. Astrazione, esistenza e realtà                         19
 2. La matematica degli dèi                                29
 3. Formule matematiche e formule filosofiche              46
 4. Crescita e diminuzione. Numero e physis                53
 5. Katà gnómonos physin                                   66

 6. Dynamis. La capacità di produrre                       72
 7. Intermezzo. La meccanica spirituale                    83
 8. I paradossi di Zenone. La spiegazione del movimento    88
 9. I paradossi della pluralità                           102
10. Limite e illimitato. Incommensurabilità e algoritmi   111

11. Realtà dei numeri. Le sequenze fondamentali di Cantor 129
12. Realtà dei numeri. Le sezioni di Dedekind             141
13. La matematica è scoperta o invenzione?                156
14. Dal continuo al digitale                              161
15. Crescita dei numeri                                   175

16. Crescita delle matrici                                184
17. Crisi dei fondamenti e crescita della complessità.
    Realtà ed efficienza                                  203
18. Verum et factum                                       213
19. Ricorsione e invarianza                               217

    Note                                                  223
    Indice dei nomi                                       253


 

 

| << |  <  |  >  | >> |

Pagina 11

Introduzione



Di quale realtà ci parla la matematica? È opinione diffusa che i matematici si occupano di formalismi astratti, e che solo per ragioni inspiegabili questi formalismi si applicano in ogni ambito della scienza. Concepiamo entità immateriali che sembrano poi destinate a definire modelli di fenomeni che accadono realmente nel mondo. Da un lato le cose reali, attuali; dall'altro i concetti matematici, creazioni della nostra mente, che ne simulano il comportamento in un modo più o meno efficace. L'ignoranza dei veri motivi della potenza descrittiva di formule ed equazioni certo non aiuta a chiarire le motivazioni del pensiero matematico. Semmai, finisce per avvalorare l'idea che i matematici non sono inclini a occuparsi del mondo. La matematica continua così a presentarsi come una scienza che elabora ingegnose operazioni con regole e concetti che sembrano inventati al solo scopo di eseguirle correttamente. Poco importa che alcune idee siano suggerite dall'osservazione dei fenomeni naturali; le operazioni producono rapidamente concetti avanzati e complessi che si discostano dalla realtà osservabile, e che convalidano infine l'immagine distorta di una matematica come puro gioco linguistico o come vuoto formalismo.

Tuttavia la matematica, se risaliamo alla sua storia più remota e alle sue più profonde motivazioni, appare orientata diversamente da ciò che comunemente si crede. Le fonti fanno capire che l'aritmetica e la geometria antiche cominciavano ad assumersi il compito non tanto di descrivere o simulare le cose reali, quanto di offrire un fondamento della stessa realtà del mondo di cui esse facevano parte. Erano gli enti concreti, quelli più direttamente e immediatamente percepibili, ad essere cangianti e mutevoli, e ad apparire quindi irreali. Nei numeri, nei rapporti e nelle figure della geometria bisognava invece trovare ciò che li sottraeva all'instabilità e all'evanescenza.

Se pensiamo ai celebri paradossi di Zenone, ai numeri-punti dei pitagorici e degli atomisti antichi, alla filosofia matematica di Platone, alla scoperta dell'incommensurabilità e al significato del concetto di rapporto (lógos), ai calcoli babilonesi e alla matematica vedica, ci troviamo di fronte a una grandiosa compagine di conoscenze tese a cogliere la parte più interna e invisibile, e insieme più reale, degli enti che esistono in natura. Ma questo orientamento non è della sola matematica antica. La teoria dei numeri e del continuo aritmetico elaborata nel XIX secolo si propose come un ideale proseguimento dell'antico pitagorismo e della sua visione del mondo ispirata a un principio di realtà atomistica. I matematici di allora continuavano a sostenere che le loro costruzioni simboliche corrispondevano a enti realissimi, e la sensazione più diffusa era che dal successo delle loro teorie dipendesse il fondamento necessario per comprendere il mondo. Quando i princìpi di quelle teorie, nel primo Novecento, divennero incerti e cominciarono a subire una revisione critica, la matematica fu obbligata a cercare le ragioni che rendono davvero concreto ed affidabile un sistema di calcolo.

Un termine chiave iniziò allora a circolare insistentemente tra i matematici, quello di algoritmo, che denotava non tanto una formula astratta, quanto un processo effettivo. Questo processo doveva svolgersi in un numero finito di passi, da un insieme di dati iniziali fino a un risultato finale, nello spazio e nel tempo, secondo le modalità previste da una macchina. Le definizioni formali di algoritmo, basate sulla ricorsione, sulla macchina di Turing o su altri formalismi, risalgono agli anni Trenta del secolo scorso, ma i primi avvertimenti che sarebbe stato il concetto di algoritmo a ereditare il senso della realtà matematica, cioè di tutto ciò che i matematici avvertono come reale e effettivo, si registrano già nel primo decennio del Novecento, nei prodromi dell'intuizionismo matematico e nelle prime argomentazioni con cui Émile Borel affrontava i paradossi semantici e l'incipiente crisi dei fondamenti.

La scienza degli algoritmi ebbe uno sviluppo tumultuoso per tutto l'arco del Novecento e raggiunse un culmine nelle definizioni formali degli anni Trenta, per poi dividersi, in seguito alla costruzione dei primi calcolatori digitali, in due filoni complementari e relativamente contrapposti: da un lato l'informatica teorica, con una teoria astratta della calcolabilità e della complessità computazionale, dall'altro una scienza del calcolo su grande scala, deputata a risolvere problemi della fisica matematica, dell'economia, dell'ingegneria o dell'informatica in termini puramente aritmetici e numerici. I molteplici risvolti filosofici di questo secondo filone non sono stati ancora abbastanza chiariti, ma è già evidente, nella sensibilità di chiunque, quanto abbia inciso, in ogni settore della vita, della cultura e dell'assetto sociale, il moltiplicarsi di una varietà diversificata di processi di calcolo volti a risolvere problemi specifici della più varia natura.

Nel calcolo numerico su grande scala l' effettività teorica degli algoritmi vuole diventare efficienza computazionale. E oggi sembra ormai chiaro che, per essere reali, gli stessi enti matematici costruiti con un processo di calcolo devono potersi pensare alla stregua di algoritmi efficienti. Ora l'efficienza dipende soprattutto dal modo in cui crescono la complessità computazionale e l'errore nei calcoli. In special modo l'errore dipende da quanto velocemente crescono i numeri nel corso del calcolo.

I motivi della crescita dei numeri sono strettamente matematici e si chiariscono grazie a teoremi relativamente avanzati. Ma non è superfluo notare che il motivo della crescita, in ogni suo risvolto, è stato oggetto della massima attenzione già nel pensiero antico, ed è precisamente il modo in cui la crescita delle grandezze è trattata nella geometria greca, nei calcoli vedici e nell'aritmetica mesopotamica a far capire le cause della crescita dei numeri negli algoritmi moderni. La ragione è tanto semplice quanto sorprendente: alcuni importanti schemi computazionali sono rimasti immutati da allora fino alle più complesse strategie di cui si avvale oggi il calcolo su grande scala.

Da che cosa derivano quegli schemi? In qualche caso, di particolare rilievo per la scienza moderna, le fonti parlano chiaro: quegli schemi derivano da una singolare combinazione di progettualità, umana e di dettame divino. Nell'India vedica gli altari di Agni avevano complesse forme geometriche e dovevano poter essere ingranditi cento volte senza cambiare la loro forma, con tecniche specifiche che si ritrovano anche nella geometria greca e nel calcolo mesopotamico. In Grecia capitava, come nel caso del raddoppiamento del cubo, che l'ingrandimento di una figura fosse ordinato da un dio. Ma l'ingrandimento della figura geometrica era in stretta relazione con gli algoritmi deputati ad approssimare quei numeri che, dovendo misurare grandezze geometriche come la diagonale di un quadrato di lato unitario, oppure il rapporto tra una circonferenza e il suo diametro, risultano irrazionali. Furono gli dèi vedici e quelli greci, molto prima del dio di Descartes, ad assicurare l'esistenza di un nesso tra le concezioni del mistico e della natura, tra la nostra sfera più intima e la realtà esterna. La matematica era anche allora il principio di questo possibile nesso. In ogni caso, le modalità di crescita nella geometria antica, suggerite dal dio, si riflettono oggi nella crescita dei numeri nel calcolo digitale, incidendo in modo essenziale sulla stabilità del calcolo e sul potere di previsione dei modelli matematici. Infatti le modalità di crescita delle figure geometriche, in particolare del quadrato, sono spesso correlate a procedure numeriche che generano frazioni p/q che approssimano numeri irrazionali, dove p e q sono numeri interi. Ma di solito p e q crescono tanto più rapidamente quanto più rapida è la convergenza del metodo, con possibili effetti negativi sulla precisione e sulla stabilità dell'intero processo di calcolo.

La tesi per cui i numeri irrazionali sono enti reali, con uno statuto ontologico equiparabile a quello dei numeri interi, fu una conquista della matematica di fine Ottocento e del modo in cui fu allora definito il concetto aritmetico di continuo. Ma lo sviluppo della scienza degli algoritmi e del calcolo digitale, nel Novecento, divenne espressione di una nuova opposizione: una sorta di ultimo atto di quella perenne tensione tra numeri e geometria, tra discreto e continuo, a cui già alludevano i celebri paradossi di Zenone. È lecito parlare di opposizione, perché lo studio degli algoritmi fu propiziato, fin dai primi anni del Novecento, da un concorso di idee orientate a rivalutare gli aspetti più realistici e costruttivi della matematica, in antitesi a quelle astrazioni da cui erano nati i paradossi e la crisi dei fondamenti: da un lato il magistero del matematico francese Émile Borel, che segnalava l'importanza di definire gli enti matematici mediante costruzioni algoritmiche; dall'altro la drammatica scissione operata da L.E.J. Brouwer e dall'intuizionismo matematico all'interno della compagine della matematica. Sostenendo che un numero esiste soltanto se è costruito, Brouwer sferrò un attacco generale al sistema scientifico allora prevalente, mettendo in dubbio le definizioni fondamentali dell'analisi classica.

Le filosofie costruttiviste, che si basano su un'idea di calcolabilità effettiva, hanno assegnato nuova preminenza a ciò che sembrava estraneo alla vocazione astratta della matematica, hanno cioè dato importanza all'operazione concreta, al fatto di natura e infine al processo computazionale che si svolge all'interno di una macchina nei limiti consentiti di spazio e di tempo. Ma è altrettanto evidente che importanti strategie computazionali sono modellate sugli stessi schemi che gli uomini avevano elaborato in tempi che li vedevano in stretta comunicazione con gli dèi. Per necessità rituali, nell'India vedica come in Grecia, il motivo della crescita delle grandezze era di fondamentale importanza e doveva essere affrontato matematicamente. E gli schemi di massima per far crescere una grandezza di forma geometrica sono ancora riscontrabili nelle formule della matematica computazionale più avanzata. Gli schemi non sono mutati, ma sono stati certamente ampliati e perfezionati da complesse teorie matematiche. Da queste teorie ricaviamo pure una ragione della loro efficienza e della loro effettiva capacità di tradurre i modelli matematici della natura in pura informazione digitale.

Lo stesso processo computazionale, lo stesso processo articolato in una miriade di concrete operazioni automatiche, può svolgersi solamente grazie a strutture matematiche astratte, inseribili più o meno artificialmente nel calcolo. L'astrazione matematica si combina in modo necessario e sistematico con la materialità dell'esecuzione automatica delle operazioni. Il calcolo è possibile grazie a complessi presupposti teorici e a speciali proprietà di numeri, di funzioni, di matrici.

Resta quindi aperta la domanda: i numeri sono enti reali? E in caso affermativo, lo sono tutti nel medesimo identico modo? Le due questioni vanno affrontate insieme. La storia dell'ultimo secolo e un'analisi dei concetti di numero e di algoritmo fanno ora intravedere una prima conclusione: esistono diverse specie di numeri, che non possiedono lo stesso statuto ontologico, ma di cui si può predicare un'esistenza reale per diverse ragioni e sotto diversi punti di vista. Un criterio dirimente per stabilire la realtà dei numeri è il modo in cui essi crescono nei processi di calcolo. E le prime ragioni di questo fenomeno vanno cercate nell'analisi della crescita delle grandezze geometriche elaborata nel pensiero antico, specialmente nella matematica greca, vedica e mesopotamica.

| << |  <  |  >  | >> |

Pagina 83

7
Intermezzo
La meccanica spirituale



Due enigmatici e laconici giudizi sulla natura dell'anima ci sono stati tramandati dall'antichità. Per il primo, attribuito ad Eraclito, «all'anima compete un lógos che accresce se stesso» (22 B 115 DK). Per il secondo, attribuito a Senocrate, al quale fu affidata la direzione dell'Accademia platonica dopo Speusippo, «l'anima è un numero semovente». Aristotele ( Sull'anima, 408 b 34 sgg.) annoverava il giudizio di Senocrate tra le teorie del tutto irragionevoli, ma non riteneva superfluo dilungarsi sui motivi che lo inducevano a confutarlo. A questo si può aggiungere l'intimo nesso tra una filosofia dell'anima e una teoria complessiva della natura dell'universo prefigurato in una questione sollevata da Socrate ( Fedro, 270 c): «Ma credi che sia possibile conoscere la natura (physin) dell'anima in maniera sufficientemente adeguata se si prescinde dalla natura (physeos) del tutto?». La risposta, evidentemente negativa, collega indirettamente numero e anima, perché Platone affermava che nelle progressioni numeriche si poteva leggere la physis, e la «natura» dell'anima era la sua physis, appunto, cioè la sua crescita nel lógos.

| << |  <  |  >  | >> |

Pagina 88

8
I paradossi di Zenone
La spiegazione del movimento



Comincia con Zenone di Elea la più paradossale rivelazione dell'inconoscibilità dell'infinito, condotta attraverso passaggi dialettici che nel corso dei secoli non sono mai stati davvero confutati. La storia dei paradossi di Zenone è fatta di commenti contraddittori, di critiche e confutazioni, di riprese e di sorprendenti convalide, che hanno finito col rovesciarne il significato: Zenone aveva ragione, il mondo va riconsiderato in conformità alle sue argomentazioni, e se si elabora una teoria matematica del continuo coerente e adeguata, i paradossi si rivelano strumenti idonei per reinterpretare il mondo reale. Essi non vanificano, ma sono la realtà, e indicano in quale direzione la matematica può rappresentarla. Questa, almeno, è la spiegazione che sembrò prevalere nel primo Novecento, con lo sviluppo di una teoria matematica del continuo i cui inizi risalgono alla seconda metà del XIX secolo.

I paradossi sul movimento si basano sulla diminuzione progressiva delle lunghezze di percorrenza e sull'osservazione che la decrescita in infinitum dei segmenti in cui si divide per dicotomia una linea continua ci fa apparire il mondo come qualcosa di irreale. Sembra che l'infinito (ápeiron) entri nel pensiero eleatico, già nel VI e V secolo a.C., come dilemma, perché espresso in una doppia versione: una affermativa, soprattutto con Melisso, l'altra negativa e apparentemente in opposizione alla prima, con i paradossi di Zenone. Melisso si esprime diversamente da Parmenide. Per Parmenide l'infinito non è un attributo dell'essere, perché negativamente segnato da un non-essere, dall'assenza (stéresis) insita nell' ápeiron greco. Mentre per Parmenide la forza della necessità sembra costringere l'essere nelle catene del limite (28 B 8, 26-33 DK), Melisso afferma risolutamente che l'essere che sempre era e sempre sarà, senza principio né fine, è infinito, e che nulla che abbia principio e fine può dirsi infinito (30 B 1-4 DK). L'infinito, affermava Melisso, è anche uno (30 B 5 DK), perché se fosse due avrebbe un limite in altro (pròs állo).

| << |  <  |  >  | >> |

Pagina 98

Analogamente, sembra necessario dover imporre la cosiddetta completezza del continuo, cioè l'inserimento nella sua compagine di tutti i punti le cui coordinate non sono numeri razionali. Esistono infatti curve che si intersecano in punti le cui coordinate non sono numeri razionali. Un esempio è il punto di intersezione tra la diagonale di un quadrato e il cerchio inscritto. Assumendo che esistono soltanto i punti di coordinate razionali, non potremmo sostenere che quel punto di intersezione esiste davvero. Se disegniamo sul piano cartesiano un cerchio con centro nell'origine e raggio uguale alla diagonale di un quadrato di lato 1, esso interseca l'asse delle ascisse in un punto la cui distanza dall'origine è misurata dal numero irrazionale √2. Ora è un'insopprimibile esigenza della nostra mente considerare lo stesso punto alla stregua di un'entità reale. La nostra mente non tollera lacune nel continuo e il modo più efficace per evitarle è associare alle coordinate dei punti di intersezione tra linee numeri che hanno la stessa realtà dei numeri interi e delle frazioni. Il numero dà realtà al punto, a patto che sia esso stesso un'entità reale.

| << |  <  |  >  | >> |

Pagina 137

A Henri Bergson non sfuggì la conformità alle richieste di un realismo sia pratico sia filosofico insita nelle componenti puntiformi dello spazio e del tempo. Bergson si era detto colpito dal constatare come il tempo vissuto, così centrale per la filosofia, sfuggisse del tutto alla matematica. Tempo e spazio erano posti dai matematici sullo stesso piano, come cose dello stesso genere, e per passare dall'uno all'altro bastava scambiare «successione» con «giustapposizione». La nostra intelligenza, notava Bergson, si esercita con più agio quando ha a che fare con punti in qualche modo fissati: essa si domanda dove una cosa in movimento si trova in un certo istante, dove sarà in un istante successivo e per dove passerà; e anche se sembra così interessarsi alla durata temporale, «essa vuole sempre avere a che fare con immobilità, reali o possibili». Ma con Bergson il senso e lo scopo del continuo matematico si rovesciano: proprio per il fatto di essere reali o attuali, al fine di rispondere ai nostri bisogni pratici, il tempo e lo spazio matematici tradiscono l'esperienza vissuta e il tempo interiore. Fu poi Norbert Wiener, nel corso della sua collaborazione con Eberhard Hopf, ad accorgersi che il tempo bergsoniano, non un flusso lineare ma un «emboîtement di fatti di coscienza gli uni dentro gli altri, nel graduale arricchimento dell'io», serviva pure a spiegare la fisica delle stelle e il funzionamento della bomba atomica. Wiener introdusse, assieme a Hopf, una classe di equazioni integrali (dette di Wiener-Hopf) che sa- rebbero pure servite a simulare processi temporali della più svariata natura, con efficaci tecniche di predizione e di filtraggio di segnali. Anche nel retroscena delle attività e delle ricerche di Wiener, con lo studio di congegni e modelli matematici basati sul concetto di retroazione (feedback), traspariva un orientamento conforme alla visione di Proust e di Bergson. Il tempo della cibernetica, che si discostava in qualche modo da quello dei fisici, doveva essere anche quello di fenomeni teleologici, di processi di crescita e di apprendimento, e assomigliava così alla durata davvero vissuta, al tempo interiore organizzato come un processo di reciproca penetrazione di stati di coscienza. La sua struttura, basata sul fenomeno dell' emboîtement, poteva esprimersi nei modelli matematici dei processi temporali, in termini di integrali e di matrici di Toeplitz, che esprimevano la stessa idea della crescita delle figure, per via di successive correzioni gnomoniche, della matematica antica.

| << |  <  |  >  | >> |

Pagina 144

Ci si chiede però: che necessità c'è di definire √2 come una sezione del corpo razionale piuttosto che un numero (di infinite cifre decimali) che elevato al quadrato dà come risultato 2? Non si esclude la possibilità di esprimere un numero irrazionale come una sequenza (aperiodica) di infinite cifre, e nemmeno la possibilità di definire un numero irrazionale, in qualche caso particolare, come il numero che elevato a una certa potenza dà come risultato un dato numero intero. Ma dietro il concetto di sezione c'è innanzitutto l'idea di rapporto tra due grandezze (√2 e π sono il rapporto, rispettivamente, tra la diagonale e il lato di un quadrato e tra una circonferenza e il suo diametro e Dedekind si rifà esplicitamente alla teoria dei rapporti di Eudosso-Euclide), e dire che questo rapporto corrisponde a un numero irrazionale significa che esso non è esprimibile come un rapporto tra numeri interi (Elementi, X, 7).

Quindi per capire che cosa è un numero irrazionale occorre sapere che cosa è un rapporto, cioè quale significato assume la relazione tra due grandezze che si esprime con il segno « : ».

| << |  <  |  >  | >> |

Pagina 152

Dini allude ripetutamente all'esistenza reale dei numeri, per indicare che questi non sono mere finzioni, e che i simboli che li denotano, all'unico scopo di rispettare una «semplicità di locuzione», corrispondono a un fenomeno effettivo e tangibile, anche se, si potrebbe aggiungere, di origine ignota.

Accadde tuttavia un fatto singolare. Si era così certi della coerenza e dell'esistenza reale dei numeri che sembrò plausibile estrarne i principi generali di una logica matematica degli insiemi finiti e infiniti. Verso la fine dell'Ottocento la teoria dei numeri di Dedekind aveva precisamente lo scopo di evidenziare una teoria logica degli insiemi come presupposto della nozione intuitiva di numero e della struttura ricorsiva delle operazioni aritmetiche. Ma questa logica osò poi avventurarsi, a sua volta, oltre i limiti consentiti. Essa si scontrò contro il muro dei paradossi e i matematici cominciarono allora a diffidare dell'esistenza delle classi. Il realismo sfociò in una sorta di nominalismo scettico che si affidava alla coerenza di un linguaggio logico mutuato da proprietà essenzialmente matematiche, conosciute da secoli e perfezionate nelle teorie moderne del continuo.

Si cerca di far derivare tutto da princìpi logici, ma non è verosimile che la realtà dei numeri dipenda da una logica della quantificazione che si serve di espressioni del tipo « esiste x tale che f(x) = O », oppure « ogni x soddisfa una certa proprietà P », con cui Russell trattava le sezioni di Dedekind. Al contrario, la riduzione di proprietà matematiche alla logica delle funzioni proposizionali ha imposto una visione nominalistica che ha tolto realtà ai numeri, spostando ogni loro carattere di evidenza sulla correttezza di formule linguistiche e sulla proprietà di coerenza di un sistema formale.

Russell elaborò una teoria delle descrizioni allo scopo di far letteralmente sparire i soggetti grammaticali, riducendoli a «simboli incompleti», simboli che non rappresentano direttamente alcunché. Si riusciva così a esorcizzare il problema dell'esistenza dell'«ippogrifo» o del «circolo quadrato», che rischiavano altrimenti di essere presupposti come oggetti plausibili nel linguaggio comune. Le classi e i numeri definiti dalle classi non sfuggivano a questa sorta di annichilimento. I simboli che denotano classi, come quelli che intervengono nelle descrizioni, sono simboli incompleti. Conta la correttezza del loro uso, ma in se stessi non significano nulla: «perciò le classi, per come le introduciamo, sono mere convenienze linguistiche o simboliche, non autentici oggetti... ».

In un trattato di teoria logica degli insiemi Quine dichiara che il suo compito consiste soprattutto nel decidere quali sono le proposizioni che individuano una classe, ovvero, nei termini di un realismo filosofico, «quali classi esistono». Ma ogni realismo appare alla fine azzardato. In realtà, per Quine, le classi non esistono affatto, il formalismo logico deve porsi sempre l'obiettivo di eliminarne ogni uso esplicito che le prospetti come enti reali. Qualsiasi reale conoscenza finisce allora per basarsi sulla mera osservazione empirica.

Che cosa provocò questa diffidenza nell'esistenza dei numeri? Certo, la crisi dei fondamenti della matematica, maturata nel primo Novecento, a seguito della scoperta dei paradossi, acuì i sospetti, già espressi da Leopold Kronecker, circa l'esistenza di numeri infiniti. Cantor aveva abusato del potere di astrazione del matematico: questa era anche l'opinione di Frege, per il quale c'era il rischio che l'astrazione fosse usata alla stregua di un potere magico, e che i numeri transfiniti fossero entità evocate con inammissibili giochi di prestigio. La scoperta delle antinomie avvalorò il giudizio dei matematici che attribuivano a Cantor un'infondata pretesa di onnipotenza.

Colpisce tuttavia il brusco passaggio dalle asserzioni di matematici come Dedekind, Cantor o Dini, orientate a stabilire la realtà di certe classi di numeri, alla deriva nominalista subentrata con il logicismo. Quest'ultimo, si direbbe, si incaricò di rendere inoffensiva l'imbarazzante domanda che cominciava ad aleggiare a cavallo dei due secoli, e di cui Nietzsche aveva trovato la formulazione più radicale: «... la questione rimane aperta: gli assiomi logici sono adeguati al reale o sono criteri e mezzi per creare il reale, il concetto di "realtà" per noi?... Per poter affermare la prima cosa, occorrerebbe però, come si è detto, conoscere già l'essere: il che assolutamente non è. Il principio non contiene quindi un criterio di verità, ma un imperativo circa ciò che DEVE valere come vero». Peraltro, in conformità a una lunga tradizione che risale a Tommaso d'Aquino, Descartes e William James, anche Whitehead e Russell, nell'Introduzione ai Principia Mathematica, precisavano che le definizioni hanno un carattere di volizione, imposto dalla scelta di ciò che appare più degno di essere conosciuto. Eppure dietro questa volizione c'era un imperativo ancora più forte di quello che intendeva Nietzsche: l'evidenza di quei fenomeni inalterabili e immodificabili, connaturati agli stessi numeri e alle stesse formule matematiche, che impongono le scelte teoretiche più fondate e più significative.

| << |  <  |  >  | >> |

Pagina 156

13
La matematica è scoperta o invenzione?



Se la matematica è scoperta o invenzione è un quesito ripetuto e abusato, che sembra voler suscitare una risposta critica, una distinzione conclusiva tra ciò che è reale e ciò che è soggettivo e arbitrario. Sulla possibilità di questa distinzione, la matematica e la logica si prestano fatalmente a essere interpellate. Nel fissare gli assiomi, nel dimostrare un teorema o nel costruire la soluzione di un'equazione, il pensiero sembra conformarsi al reale, e l'arbitrio alla necessità: uno scambio nel quale si cerca di distinguere, a causa del suo carattere immediato e originario, due termini antitetici nel preciso istante in cui iniziano a combinarsi. Ma il loro iniziale combinarsi è già un groviglio inestricabile, e la questione di quale sia davvero il prius, tra l'arbitrio e la necessità, rimane senza risposta.

La necessità di introdurre i numeri reali sembra in antitesi alla tesi, sostenuta da Dedekind, che si tratta di «libere creazioni della mente umana»; ma questa libertà deve pure corrispondere a una normativa conforme a quelle che lo stesso Dedekind chiamava «le leggi del pensiero», l'abilità congenita alla nostra mente di collegare cosa a cosa, di far corrispondere una cosa all'altra, di rappresentare una cosa con l'altra; un'abilità senza la quale sarebbe impossibile pensare. Dal momento della nascita ci esercitiamo continuamente in queste operazioni di collegamento e di rappresentazione, ma senza un fine predefinito. Le catene dei ragionamenti sembrano così disporsi, naturalmente, in modo da suggerire nozioni apparentemente semplici, in verità complesse, come la nozione astratta di numero, che si articola in successive generalizzazioni fino ai numeri reali e complessi. Ogni teorema di algebra e di analisi, annotava Dedekind, per quanto avanzato, può essere espresso come un teorema sui numeri interi, ma questa circostanza non deve impedire la creazione di nuove entità:

Non vedo nulla di meritorio — lo pensava anche Dirichlet — nel compiere davvero questa faticosa circonlocuzione e nell'usare e riconoscere con insistenza nient'altro che i numeri razionali. Al contrario, il più grande e vantaggioso progresso nella matematica e nelle altre scienze è consistito invariabilmente nella creazione e nell'introduzione di nuovi concetti, resi necessari dalla ricorrenza frequente di complessi fenomeni che possono essere controllati soltanto con difficoltà dalle vecchie nozioni.

Poincaré usava argomentazioni non troppo dissimili per giustificare una definizione aritmetica del continuo. Dunque la ragione che ci spinge a nuove creazioni non dipende da un arbitrio ma dalla frequenza con cui ricorrono oggettivamente complessi fenomeni che conviene contrassegnare mediante nuovi concetti. Ma la realtà insita in ciò che si lascia designare da questi concetti si rivela soprattutto nella capacità di produrli.

| << |  <  |  >  | >> |

Pagina 168

[...] La scienza matematica deve potersi orientare in due versi opposti: dal concreto all'astratto, ma anche dall'astratto al concreto, ed è perlomeno incerto quale dei due versi risponda meglio alla sua più segreta inclinazione. Infatti almeno quattro linee di ricerca fanno pensare all'estrema attenzione che i matematici hanno dedicato, nei secoli, alla relazione che le loro teorie intrattengono con il mondo reale, sia esso materiale o invisibile: la dottrina dei numeri-punti dei pitagorici e degli atomisti antichi, la fisica matematica, la teoria dei numeri reali e la successiva scienza del calcolo basata sul concetto di algoritmo.

Come osservava Giuseppe Peano, la finalità della matematica consiste in buona misura nel calcolare le cifre dei numeri che sono soluzioni delle equazioni che simulano i più diversi fenomeni della natura: «Lo scopo della Matematica è di determinare il valore numerico delle incognite che si presentano nei problemi pratici. Newton, Euler, Lagrange, Cauchy, Gauss, e tutti i grandi matematici sviluppano le loro mirabili teorie fino al calcolo delle cifre decimali necessarie». Ora la matematica può svolgere questo compito solamente se è orientata al concreto oltre che all'astratto. Le equazioni differenziali e integrali e i problemi di minimo in cui si esprimono i modelli matematici di fenomeni naturali e artificiali hanno origine da concrete situazioni fisiche, economiche e informatiche, e la natura delle condizioni aggiuntive sui valori al contorno e sui valori iniziali delle funzioni incognite è sempre motivata dalla realtà fisica che si vuole simulare. Tuttavia la matematica non si limita a trovare le equazioni che definiscono questi modelli. Devono essere soddisfatti i requisiti che consentano di elaborarne una soluzione, ed è relativamente raro che questa soluzione possa esprimersi con una formula analitica, come è pure improbabile che convenga usare una formula analitica, se esiste, per trovare la soluzione di un'equazione in termini di pura informazione digitale.

Le soluzioni scritte in forma analitica, quando esistono, sono di solito molto complicate. Inoltre una formula analitica dovrebbe soddisfare una condizione di stabilità: a piccole variazioni sui dati devono corrispondere piccole variazioni sul risultato, altrimenti l'informazione trasmessa dal modello rischia di essere completamente distorta. Non sempre questa condizione è soddisfatta, e a Jacques Hadamard si deve appunto un esempio di problema ai valori iniziali la cui soluzione analitica non dipende in modo continuo dai dati. Basta allora che questi siano affetti da un minimo errore per non avere alcuna informazione utile sulla soluzione del problema. Problemi di questo tipo sono stati chiamati «mal posti».

La richiesta che la soluzione di un'equazione esista e sia unica, e che il problema sia ben posto, è conforme a una concezione classica della fisica matematica, dominata dal presupposto che un evento fisico si evolve in modo stabile e determinato, una volta fissate le condizioni iniziali o al contorno.

La visione di Laplace della possibilità di calcolare tutto il futuro del mondo fisico in base a un insieme esauriente di dati sullo stato attuale è una espressione estrema di questo orientamento. Tuttavia questo ideale razionale di determinismo matematico basato sull'idea di causa subì una graduale erosione nel confronto con la realtà fisica. I fenomeni non-lineari, la teoria quantistica e l'avvento di potenti metodi numerici hanno mostrato che i problemi «ben posti» sono ben lungi dall'essere i soli a riflettere i fenomeni reali.

Non basta però assicurarsi che la soluzione analitica, supposta esistente, sia continua rispetto ai dati. In realtà la modellizzazione matematica comprende diversi stadi: la formula del modello deve essere approssimata, di solito, da una formula aritmetica e questa deve tradursi, per via di procedure numeriche, in puro calcolo digitale. Nel caso più frequente in cui si approssima il modello differenziale con un modello puramente aritmetico, come un sistema di equazioni algebriche lineari, occorre esaminare la sensibilità rispetto agli errori sui dati di questo modello semplificato, nonché la stabilità del processo che ne calcola la soluzione numerica. Il calcolo comprende infine una mole enorme di operazioni elementari, e una molteplicità di sottoprogrammi che costituiscono un'elaborazione nascosta, alla quale non abbiamo accesso, ma su cui poggia in larga misura il grado di affidabilità di un processo computazionale.

Così osservava Beresford Parlett nel 1978:

Oggi gran parte dei calcoli meglio specificati nei particolari sono occulti. Questo significa che l'utente umano non vede né i dati né il risultato. In un gigantesco processo di calcolo, i dati utili a un programma secondario (come una trasformata di Fourier) sono generati da qualche programma e i risultati sono subito usati per un altro. Questo è caratteristico di un'analisi numerica introflessa ... Gli algoritmi per il calcolo occulto devono essere molto più sicuri di quelli che producono risultati che saranno visti da un occhio umano. Il tempo di esecuzione sembra essere meno importante, ma sia l'affidabilità sia l'efficienza sono essenziali. Fino a che punto, in ogni caso, possiamo migliorare entrambi? Questa è una questione interessante.


Riassumendo a grandi linee, la matematica ha attraversato, dai tempi di Leibniz e Newton, tre momenti cruciali, il terzo dei quali è tutt'ora in corso e sta assumendo i contorni di quella che si usa chiamare rivoluzione digitale. Alla prima scoperta, nel XVII secolo, di quella grandiosa macchina analitica che prese il nome di analisi infinitesimale, è succeduto un secondo passaggio, alla fine dell'Ottocento, noto come aritmetizzazione dell'analisi, altrettanto rivoluzionario: la ricerca dei fondamenti dell'analisi nei concetti di numero, di insieme e di passaggio al limite. Nel numero, fosse questo razionale, reale o transfinito, si doveva cercare la realtà ultima, l'attualità autentica del finito come pure dell'infinito, a cui la matematica non aveva mai cessato di guardare. Qui c'erano anche i semi della terza rivoluzione: lo spostamento dal principio per cui era possibile ricondurre ogni ragionamento al concetto di numero all'implementazione di una varietà di metodi per calcolare insiemi di numeri. Gli algoritmi e le liste di numeri calcolati avrebbero ereditato l'informazione dei modelli iniziali e l'avrebbero tradotta, secondo gli auspici di un autentico riduzionismo, in un diverso, più elementare, livello descrittivo. La possibilità teorica di ricondurre l'analisi al numero e a operazioni di passaggio al limite doveva volgersi a un'aritmetizzazione effettiva.

L'ultimo passaggio fu dovuto a due ragioni concomitanti: la crisi dei fondamenti della matematica, che mise in dubbio la possibilità di usare indiscriminatamente il concetto di insieme, e il sorprendente sviluppo della scienza applicata, già in atto dalla fine dell'Ottocento, che ebbe tra i suoi effetti anche lo sviluppo dell'informatica e del calcolo scientifico intorno alla metà del XX secolo. Gli algoritmi divennero oggetto di studio dell'informatica teorica, ma anche, dal secondo Novecento, il nucleo teorico e pratico di una scienza del calcolo su grande scala che avrebbe dovuto tradurre i problemi della fisica matematica in un grandioso sistema di elaborazione digitale.

Il principio di realtà fu spostato appunto, in questa terza fase, sull'idea di algoritmo. Si notò spesso, nel corso di questo passaggio, che la matematica non può limitarsi a procedimenti di astrazione, ma deve pure seguire la direzione opposta, dai concetti astratti alla realtà concreta, alla terra, per così dire. Proprio dalla terra, dalle concrete applicazioni alla realtà fisica, la matematica doveva trarre la forza per liberarsi dall' impasse di una crisi dei fondamenti che ne avrebbe indebolito, altrimenti, la forza teoretica, come insegna la leggenda di Ercole e Anteo: il gigante Anteo traeva il suo vigore dalla madre Terra e Ercole riuscì a vincerlo tenendolo sollevato in aria e rialzandolo ogni volta che cadeva. Anteo perdette così gradualmente le forze, fu vinto e ucciso; ma se fosse rimasto sulla terra la sua forza avrebbe prevalso.

| << |  <  |  >  | >> |

Pagina 184

16
Crescita delle matrici



Ogni problema della matematica applicata e computazionale si riconduce alla fine a risolvere un sistema di equazioni lineari. È questa una tesi, o meglio una constatazione, ormai ampiamente diffusa e condivisa. Se i problemi non sono lineari si linearizzano e si ricavano così, in via approssimata, le prime informazioni utili sulla soluzione di un'equazione differenziale o integrale, su un problema di minimo o di approssimazione polinomiale. L'approssimazione non è un danno, è la norma, e tutto sta nel quantificarla, nello stabilire quando è possibile e conveniente. La linearizzazione implica un errore di approssimazione, ma non più fatale di altri errori che subentrano nei diversi passaggi che portano, dalle equazioni iniziali, al puro calcolo digitale.

Dalla seconda metà del Novecento, divenne chiaro che i sistemi di equazioni lineari utili alle applicazioni hanno dimensioni molto elevate; e poiché un sistema di equazioni lineari è individuato da una matrice di coefficienti, cioè da una tabella di numeri disposti per righe e colonne, nei decenni che videro il primo sviluppo del calcolo digitale divenne urgente e necessario uno studio approfondito del calcolo matriciale su grande scala. Ora proprio questa era la difficoltà principale: ricondurre il modello iniziale, cioè l'equazione differenziale o integrale, ai calcoli puramente aritmetici necessari a risolvere un sistema di equazioni lineari. Il termine «lineare» non deve trarre in inganno. La distinzione tra lineare e non lineare ha spesso marcato, nella matematica computazionale e applicata, un confine critico di risolvibilità, ma esistono problemi lineari assolutamente refrattari ad ogni tentativo di risoluzione. Questo si verifica tipicamente quando la matrice dei coefficienti di un sistema di equazioni lineari è fortemente mal condizionata, cioè quando c'è una elevata sensibilità della soluzione del sistema rispetto a errori sui dati.

[...]

La vera novità del calcolo, a iniziare dagli anni Quaranta e Cinquanta, stava nell'elevata dimensione dei problemi, e nel fatto che le matrici dei coefficienti di un sistema di equazioni lineari, che si proponga di simulare con sufficiente precisione un fenomeno fisico, ha decine di migliaia di righe e di colonne. La risoluzione di un simile sistema richiede allora un procedimento automatico che tenga conto delle tecniche di rappresentazione dei numeri, del tempo di esecuzione e dello spazio di memoria necessario. Questa circostanza impone un radicale cambiamento delle leggi aritmetiche con cui sono eseguiti i calcoli.

L'algebra delle matrici divenne a sua volta un capitolo centrale del calcolo digitale. All'algebra lineare e al calcolo matriciale si riconducono quasi tutti i problemi computazionali della matematica. Sono indicative, a questo proposito, le parole di Gilbert Strang: «Per gli ingegneri e i ricercatori nelle scienze fisiche e sociali l'algebra lineare occupa ora uno spazio che è spesso più importante del calcolo [calculus]. La mia generazione di studenti, e certo i miei maestri, non si accorsero del sopraggiungere di questa novità. Si tratta in parte del passaggio dall'analogico al digitale; le funzioni sono sostituite da vettori. Nell'algebra lineare l'analisi degli spazi n- dimensionali si combina con le applicazioni di matrici».

| << |  <  |