Autore Paolo Zellini
Titolo La dittatura del calcolo
EdizioneAdelphi, Milano, 2018, Piccola biblioteca 718 , pag. 190, cop.fle., dim. 10,5x17,6x1,5 cm , Isbn 978-88-459-3240-3
LettoreCorrado Leonardo, 2018
Classe matematica , storia della scienza , informatica: fondamenti












 

| << |  <  |  >  | >> |

Indice


    Introduzione                                 11

 1. Un incidente aereo                           15

 2. Don Chisciotte algebrico                     21

 3. Fibonacci. Algoritmi tra cielo e terra       29

 4. Calcolare l'infinito                         38

 5. I primi algoritmi                            51

 6. Metamorfosi, automi ed enumerazioni          58

 7. L'incalcolabile                              66

 8. La rimozione dell'infinito                   74

 9. Uomini e numeri                              83

10. Quanto grande può essere il finito?          95

11. Ordinamenti                                 100

12. Turing                                      106

13. Generazione, decisione ed effettività       113

14. Il continuo pratico                         122

15. Il finito molto grande                      131

16. Matrici e informazione                      148


    Note                                        159
    Bibliografia essenziale                     173
    Indice dei nomi                             181



 

 

| << |  <  |  >  | >> |

Pagina 11

Prefazione



Un algoritmo consiste in una sequenza di istruzioni in base alle quali il calcolatore elabora un processo di calcolo. Questa semplice definizione, accessibile a tutti, cela però le questioni più ardue. Che cosa è davvero un processo di calcolo? E perché proprio nel Novecento si è arrivati a una definizione plausibile del concetto di algoritmo? In realtà gli algoritmi sono sempre esistiti, anche senza calcolatore, ma soltanto nella seconda metà del XIX secolo ha cominciato a farsi impellente la ricerca di un formalismo matematico in grado di precisarne la natura. Oggi avvertiamo tutti la misura in cui gli algoritmi sono penetrati nella nostra vita, e ne attribuiamo la ragione, di solito, alle necessità subentrate in una società complessa e proteiforme, e in una scienza sempre meno comprensibile, in tutta la sua ampiezza, da una mente umana informata e consapevole.

Tuttavia le ragioni dell'attuale predominio della scienza del calcolo restano inspiegabili se non si studiano le motivazioni del suo primo apparire alla fine del XIX secolo, e del suo iniziale accostamento alle ricerche sui fondamenti della matematica. Certo, le innumerevoli applicazioni dell'informatica e della matematica non richiedono, per lo più, uno studio dei fondamenti. Ma le ragioni ultime della forza e della credibilità dell'algoritmo consistono in buona parte nella sintesi tra scienza teorica e applicata, tra ricerca fondazionale e tecnica della computazione. Perché di questa sintesi l'algoritmo è l'artefice.

Se le ricerche fondazionali mirano a un concetto astratto di calcolabilità effettiva, le scienze applicate cercano piuttosto l'efficienza algoritmica, come connotazione naturale e immancabile di qualsiasi processo di calcolo. Il confronto tra effettività ed efficienza, necessario ed esiziale, è storicamente individuabile nello sviluppo del calcolo su grande scala dagli anni Cinquanta, e nella dimensione gigantesca dei problemi affrontati. La necessità di affrontare problemi di una simile dimensione, intermedia tra finito e infinito, ha assegnato alla scienza degli algoritmi un compito estremo, di cui non si colgono ancora i limiti definitivi, e che si può considerare come l'ultima e tardiva conseguenza del compito iniziale affidato all'algoritmo, che era stato quello di calcolare l'infinito stesso.

La storia recente è pure segnata dall'impatto degli algoritmi sulle nostre vite. Non soltanto per la legittima ricerca di un surrogato artificiale che ponga rimedio ai limiti della nostra intelligenza, ma anche per una ragione più intrinseca, dovuta al fatto che perfino i più trascurabili atti della nostra vita quotidiana contengono operazioni di pura razionalità, che agiscono segretamente anche nelle più avanzate teorie e scoperte scientifiche. Prescindendo dai motivi che ci fanno desiderare un oggetto qualsiasi, il semplice atto di afferrarlo segue una logica che appare affine a quella di un algoritmo numerico. Il computer sembra saperlo e ci ha già dimostrato da un pezzo che, quando i nostri atti crescono di numero e diventano milioni o miliardi, siamo costretti a demandargli ogni calcolo e ogni capacità di previsione.

Lo stesso computer finisce poi per imbattersi nei limiti della calcolabilità e per porci delle questioni che assomigliano a quelle che i matematici si erano posti in tempi più remoti, quando si trattava di sondare il concetto di infinito e gli stessi presupposti del pensiero esatto. Ma oggi le intenzioni e le prospettive si sono rovesciate: se un secolo fa le incertezze e le discordanze sulla natura del calcolo avevano scatenato una profonda insicurezza e una crisi dei fondamenti, ora analoghe incertezze sulla natura degli algoritmi e sulla possibilità di un controllo computazionale dell'intero universo sembrano sfumare, nella migliore delle ipotesi, in forme di utopia e di palingenesi.

Complice di questo rovesciamento di prospettiva non è soltanto l'impressionante utilità e pervasività degli algoritmi in ogni settore della scienza applicata, ma anche un cambiamento di significato delle stesse incertezze sui fondamenti del calcolo. Queste sono ora avvertite più come un elemento di forza e di propulsione scientifica che non come un limite di conoscenza, e affidate a tecniche di analisi che tendono a porre come dato irrinunciabile l'effettività delle procedure di calcolo. Ne escono così rafforzati la credibilità e, insieme, il carattere virtualmente dispotico degli algoritmi.

| << |  <  |  >  | >> |

Pagina 15

1
Un incidente aereo



[...]

Ma che cosa è un algoritmo? Anzitutto, l'algoritmo è un processo, una sequenza di operazioni che deve soddisfare almeno due requisiti: ad ogni passo della sequenza è già deciso, in modo deterministico, quale sarà il passo successivo, e la sequenza deve essere effettiva, cioè tendere a un risultato concreto, reale e virtualmente utile. L'effettività è la connotazione più essenziale e più difficile da definire. Ha certamente a che fare con la circostanza che le operazioni comportano un tempo di esecuzione e occupano lo spazio di memoria del computer. Queste operazioni, dunque, esistono anche nello spazio e nel tempo fisici e non sono assimilabili a una mera espressione aritmetica. Ma proprio questo suo carattere ibrido, tra astrazione matematica e materialità del computer, rende l'algoritmo particolarmente attraente. Non siamo di fronte a un'entità soltanto ideale e ontologicamente dubbia, ma a qualcosa che potrebbe rivendicare un carattere di piena realtà; anche se - occorre precisarlo - la delega delle nostre decisioni agli algoritmi si basa su complesse teorie e su strutture matematiche relativamente astratte. Noi pretendiamo per lo più di ignorarle, pur continuando a fregiarci della qualifica di esseri razionali, e parliamo di algoritmi come se fossero entità perfettamente note.

Da più di un secolo sappiamo che il concetto di algoritmo poggia, innanzitutto, sulla serie dei numeri naturali con cui contiamo cose e persone. Ora, il grande antropologo Marcel Mauss aveva già notato che nell'organizzazione di una società esistono cose e persone in senso fisico o materiale prima, numerico poi, e che da epoche remote sono i numeri a costituire la base della morfologia sociale. Gli algoritmi non fanno che estendere le funzioni rituali di controllo e di ripartizione dei numeri in modi che possono diventare inaccessibili, autoritari e categorici: uno strumento utile alla società ma anche un rischio di sbilanciamento nel delicato rapporto fra categoricità e spontaneità, fra l'estranea imperiosità del meccanismo e la libertà di coscienza. Ognuno di noi ha modo di percepire la durezza e il potere di questa imposizione algoritmica, di questo calcolo che governa la nostra vocazione collettiva e gregaria.

| << |  <  |  >  | >> |

Pagina 28

Non c'è da stupirsene. La forza e la credibilità del calcolo, che è una delle impronte più evidenti della scienza del XX secolo, si deve proprio alla saldatura dei due principali orientamenti della matematica, quello teorico e quello applicativo, che ha preso forma e sostanza nel concetto di algoritmo e nell'uso sistematico di algoritmi nell'informatica e in tutte le scienze applicate. E quando la matematica e l'informatica rivelarono le enormi potenzialità applicative dell'algoritmo, le menti più profetiche del Novecento ne individuarono ben presto anche la forza di seduzione e la virtuale tirannia. Ma queste le troviamo innanzitutto nel potere realizzante dell'enumerazione, che è la base per una definizione di algoritmo. Č un potere che si trasmette alla scienza del calcolo e al computer, dal quale subiamo, di conseguenza, l'estremo Diktat, l'ultima inevitabile imposizione. Il calcolatore, già lo notava Norbert Wiener , non ci permette tanto di riposare in attesa di ciò che esso elabora per noi, quanto ci obbliga ad affrontare gli innumerevoli problemi che esso ci pone. Ed è alla fine lo stesso studio degli algoritmi e dei limiti invalicabili a cui sono soggetti a doverci distogliere dal superstizioso innalzamento dei procedimenti di calcolo al rango di oracoli veridici.

| << |  <  |  >  | >> |

Pagina 29

3
Fibonacci. Algoritmi tra cielo e terra



Nel 1888 Richard Dedekind pubblicava un breve e denso trattato dal titolo Was sind und was sollen die Zahlen? in cui dimostrava che, per via di un percorso gerarchico, le principali operazioni aritmetiche possono essere ricondotte al puro atto di enumerare e al processo iterativo che consiste nel passaggio da un numero n qualsiasi al suo successivo n + 1. A questo scopo si serviva di una strategia computazionale che Kurt Gödel , nel 1931, avrebbe chiamato ricorsione, e che sarebbe diventata il fondamento stesso dell'idea di algoritmo.

L'algoritmo ricorsivo suddivide un problema in sottoproblemi di dimensione più piccola e analoghi all'originale. Consiste quindi in un programma che prescrive, tra le sue istruzioni, l'esecuzione di un programma identico a se stesso, ma applicato a un insieme di dati di dimensione inferiore.

Nel suo Liber abaci del 1202, una vera enciclopedia della scienza algoritmica del Medioevo, Leonardo Fibonacci escogitò una formula che permetteva di calcolare quante coppie di conigli sarebbero nate in un anno da una sola coppia, sapendo che in ogni mese da una coppia ne nasce un'altra e che ogni coppia inizia a riprodursi nel secondo mese di vita. La soluzione era semplice: in un dato mese il numero di coppie era la somma del numero di coppie dei due mesi antecedenti.

[...]

A voler cercare le origini dell'idea di algoritmo, dobbiamo ritornare indietro di secoli, forse di millenni. La parete ovest del palazzo di Festo a Creta pare suddivisa secondo una successione di Fibonacci, e all'età del bronzo, intorno al 1200 a.C., risale una collezione di pesi per bilancia disposti secondo una progressione che appare simile, ancora, alla serie di Fibonacci. Ma la parola «algoritmo» deriva da Muhammad ibn Mǖsā al-Khwārizmī , il nome del matematico e astronomo arabo autore di un trattato, che risale all'inizio del IX secolo, sull' algebra (al jabr) e sulla muqābala, ovvero sulle tecniche per ridurre un'equazione a una forma che ne consentisse una risoluzione più semplice.

Era chiamato algebrista, nel Don Chisciotte di Cervantes, anche chi sistemava le ossa rotte o slogate. A un algebrista, appunto, dovette ricorrere il Cavaliere degli Specchi, vale a dire il baccelliere Sansone Carrasco, per guarire dalle conseguenze delle percosse inflittegli da Don Chisciotte.

Nell'India vedica, nel I millennio a.C., troviamo ancora algoritmi deputati alla costruzione degli altari di Agni. Lo stesso al-Khwārizmī, del resto, dichiarava di avere appreso le sue tecniche dagli indiani. Tuttavia le prime forme di pensiero algoritmico risalgono almeno a 4000 anni fa e sono leggibili sulle tavolette in cuneiforme provenienti dall'area geografica intorno all'antica città di Babilonia. Sono procedure applicate a problemi specifici, ma già improntate a schemi generali di calcolo che sarebbero rimasti invariati fino ai nostri giorni. Secondo Donald Knuth i calcoli babilonesi già possedevano lo stesso ordine e lo stesso carattere categorico dei moderni algoritmi, e del loro mirare a un risultato effettivo in un numero finito di passi.

| << |  <  |  >  | >> |

Pagina 35

Tuttavia è uno sforzo inutile continuare a eludere certe ambiguità. In un secolo come il Novecento, che vide il più travolgente sviluppo della scienza computazionale e la sua più risoluta inclinazione alla materialità del calcolo, Norbert Wiener si diceva preoccupato dei suoi possibili risvolti demonici. La preoccupazione nasceva ora dal fatto che, in assenza di un'attenta e scrupolosa analisi dell'algoritmo, dell'informazione utilizzata, della complessità e della propagazione dell'errore nei calcoli, i numeri stampati dalla macchina alla fine di un processo, con quel carattere categorico e perentorio in cui Wiener scorgeva una virtuale presenza diabolica, potevano essere, nella migliore delle ipotesi, del tutto inutili e privi di significato. Il carattere potenzialmente demonico dei numeri ha finito allora per assumere un nuovo aspetto, quello di una possibile perdita di senso di un calcolo che continua ad apparire, peraltro, completamente credibile e affidabile. L'impiego del calcolo digitale in ogni settore della nostra vita ha esasperato queste ambiguità: con l'infinita varietà degli algoritmi che servono oggi per selezionare l'ingresso nelle scuole o nelle università, per incriminare presunti colpevoli, per assumere o licenziare nelle aziende, o semplicemente per sorvegliare i nostri movimenti, si sacrifica spesso l'equità per l'efficienza, l'attendibilità del giudizio per la funzionalità dell'apparato.

L'ambiguità rischia sempre di trascinare in un'oscillazione senza rimedio. Come naturale reazione all'oppressione algoritmica e a una riduzione all'ordine decretata dai numeri, sarebbero destinati a riprendere vigore una rivendicazione di autonomia o una disposizione al pressapochismo. Un'irrazionalità impaziente e risoluta sarebbe sempre pronta a prendersi la sua rivincita contro la tirannia del calcolo, e lo farebbe - c'è da temere - sacrificando gli stessi princìpi su cui poté fondarsi, in origine, una stretta combinazione tra concetti scientifici e formule sapienziali, tra religione e matematica, tra etica e pensiero esatto.

Basandosi su un principio di realtà positiva, il dominio degli algoritmi si è da tempo sbarazzato dei presupposti filosofici, etici e metafisici del calcolo. Chi mai sarebbe oggi disposto a far propri i criteri matematici ricorrenti nell' Etica Nicomachea o nei passi del Protagora che consigliano l'arte del calcolo per difendersi dagli eccessi del piacere e del dolore? Se ora anche quel principio di realtà positiva, antimetafisica, venisse meno potremmo cominciare a temere che un'astuzia mefistofelica si sia incaricata di scomporre e disgregare il mondo, e che stia per farlo dopo avere costruito, alla guida di scienziati e di tecnici esperti, quella forma di amministrazione e di dominio in cui Nietzsche aveva scorto una tipica forma di nichilismo.

| << |  <  |  >  | >> |

Pagina 92

Si comincia a congetturare che il calcolo automatico potrà essere un giorno affrontato da calcolatori quantistici, molto più veloci di quelli attuali. In un articolo pionieristico del 1985 sugli algoritmi quantistici, David Deutsch afferma che, almeno da un punto di vista logico, non c'è una ragione perché la costruzione di macchine sempre più potenti non possa «procedere ad infinitum», e perché debba esistere una funzione non calcolabile da alcuna macchina fisica.

A tratti sembra qui di riudire, in questa sorta di

.cor hybris, di tempesta innovativa, l'eco delle grandi speranze e illusioni che avevano segnato un secolo prima le teorie dell'infinito matematico. Se non guardassimo a tutte le complesse motivazioni che ne hanno promosso lo sviluppo, non riusciremmo a capire la nostra fiducia, a tratti irresponsabile, negli algoritmi. Né riusciremmo a cogliere le ragioni profonde che sembrano consegnarci, inermi e impreparati, a quella fiumana di tecnologie digitali che sarebbero perfino in grado di alterare, se badiamo alle inquietanti analisi di un diffidente e polemico pioniere della Silicon Valley come Jaron Lanier , la nostra mente e la nostra identità.

Un motore di ricerca in rete, si chiede Lanier, sa davvero che cosa vogliamo, oppure noi stiamo semplicemente al gioco per non sfigurare davanti a una tecnologia dell'informazione cui accreditiamo un'intelligenza superiore alla nostra? Non dovremmo sottovalutare il rischio di degradarci, di abbassare o di deformare il senso dei nostri pensieri e delle nostre intenzioni per sembrare intelligenti come una macchina, attribuendo al mondo digitale una realtà che finiremmo per sottrarre a noi stessi. La rilevante questione teorica e pratica se la crescita di potenza del computer, la dimensione e la complessità dell'informazione possano finire per assumere di per sé un significato autonomo, in assenza di un essere che le interpreti, non potrebbe forse concludersi in una totale abdicazione?

La fiducia nella realizzazione tecnologica e informatica di una coscienza superiore e anonima, in grado di annettersi le nostre intelligenze individuali, sembra voler riprodurre in un grandioso sistema di bit quel carattere sfuggente e impersonale della verità di cui gli scienziati moderni sarebbero diventati i nuovi aruspici, dopo aver curiosamente usurpato, come osservava Simone Weil , il posto dei sacerdoti. Quella fiducia avrebbe pure una prefigurazione in certe intuizioni geniali di Turing e di Von Neumann , oltre che in importanti e suggestivi teoremi: l'elaboraziope di un esperimento mentale (noto come Test di Turing) in cui un giudice imparziale potrebbe non saper distinguere un uomo da un computer; una teoria degli automi che si autoriproducono senza degradarsi (elaborata da Von Neumann); la circostanza, matematicamente dimostrabile, che esiste una macchina di Turing capace di descrivere se stessa.

Erano questi solo i primi autorevoli segnali della progressiva plausibilità del risultato più estremo: la finale indistinguibilità tra l'uomo e la macchina e la risoluta confutazione delle teorie platoniche per cui i corpi visibili sarebbero simboli dell'invisibile, creature terrene vivificate da potenze divine. Si potrebbe trovare ancora un'eco residua di quelle teorie in una pagina di commento sul ruolo e sulla natura della matematica in cui Von Neumann, nel 1954, citava una conversazione fittizia tra Archimede e un suo discepolo riportata in un epigramma di Schiller. Il discepolo esprime al Maestro la sua ammirazione per la matematica e vuole essere iniziato a quella scienza divina che aveva appena contribuito a salvare lo Stato, aiutando Siracusa a opporsi all'assedio romano. Archimede precisa: la scienza è divina, ma essa è divina prima di aver aiutato lo Stato, e indipendentemente dal fatto che abbia o no aiutato lo Stato. Peraltro Siracusa fu presa dai romani di lì a poco. Von Neumann precisa a sua volta: la scienza non è certo più divina per il fatto che è di aiuto alla società, e non è neppure meno divina per la sua capacità di danneggiarla. Forse la macchina porta ancora in sé, nonostante tutto, qualcosa di divino, il segno di potenze invisibili, ma appunto per questo, indipendentemente dall'ausilio che ci offre, appare così temibile e influente.

| << |  <  |  >  | >> |

Pagina 128

«Praxis», «praktisch», «pratique» erano termini da non sottovalutare. Non alludevano soltanto alle possibili applicazioni dell'analisi e alla materialità della computazione che ne derivava, ma anche alla prossimità di quel calcolo alla nostra esperienza e all'agire umano tout court. Quando lo stesso calcolo si sarebbe trasformato in pura elaborazione digitale, sarebbe di nuovo prevalsa la sua natura invisibile, astratta e volatile. E sottraendo al calcolo ciò che rimaneva della sua concretezza e visibilità, accentuandone per di più la versatilità e l'efficienza, la conversione al digitale avrebbe ancor più evidenziato la sua natura dispotica.

Il rischio di un'invasione indiscriminata del calcolo non mancò di essere avvertito da scienziati eminenti come Clifford A. Truesdell , che negli anni Ottanta pubblicava un'invettiva dal titolo The Computer: Ruin of Science and Threat to Mankind. Truesdell profetizzava che entro il 2025 la grande maggioranza dei matematici, nei centri universitari, avrebbero usato il calcolatore o studiato i problemi che si devono risolvere per far progredire gli algoritmi. La sua critica mirava proprio a quel calcolo pratico, ormai digitalizzato, che stava spostando l'interesse verso settori computazionali e applicativi, fino a stravolgere la natura stessa della scienza. Questa non gli appariva più, ormai, imperniata sulle leggi tradizionali dell'analisi e della fisica matematica, ma su «modelli fluttuanti», non soggetti a legge alcuna, e sottoposti principalmente alle verifiche di una vorace e indiscriminata sperimentazione numerica. La sperimentazione era demandata al computer, un bruto che riduceva ogni cosa a operazioni su stringhe di zeri e uni e non aveva la minima capacità di immaginarsi un teorema o una struttura astratta.

Tuttavia queste osservazioni, che vedevano degradare il calcolo a un sistema di meri espedienti tecnici al servizio della macchina, sarebbero state per lo più ininfluenti. In realtà nelle stringhe di zeri e uni elaborate dal computer cominciavano ad essere tradotti, in altro linguaggio, quegli stessi teoremi e quelle stesse strutture che sembravano esserne l'antitesi più stridente. Erano solo livelli diversi di descrizione della stessa cosa, una più accessibile alla macchina e l'altra al matematico o al programmatore.

Oggi è più chiaro che le approssimazioni numeriche, procurate da complessi algoritmi, sono operazioni possibili grazie a teoremi e leggi generali che valgono in ambiti più teorici (come gli spazi di Hilbert), che le proprietà computazionali di matrici possono dipendere da proprietà dei gruppi e che la geometria algebrica è uno strumento per l'analisi della complessità.

L' arte della computazione è diventata scienza del calcolo. Non c'è allontanamento dall'analisi più concettuale, se mai una più intensa relazione tra teoria e prassi, tra pensiero e tecnica, ora riscontrabile in tutte le sedi ufficiali della ricerca avanzata. E ciò in netta contrapposizione allo stile teorico e introspettivo del pensiero scientifico del primo Novecento. Il totalitarismo cibernetico non nasce solo come fenomeno sociale, economico e tecnologico, o dalla deformazione del rapporto tra macchina e uomo già denunciata da Norbert Wiener. Esso deve pure la sua affermazione e la sua diffusione planetaria a sviluppi più ideali e teoretici, specialmente alla rimozione e alla trasformazione dei grandi progetti della matematica e della filosofia di fine Ottocento, a un graduale slittamento della coscienza scientifica e alla fatale attrazione di una materialità algoritmica.

| << |  <  |  >  | >> |

Pagina 136

La scienza degli algoritmi ha peraltro, nei suoi stessi presupposti, il riconoscimento dell'incertezza e dell'inevitabilità degli errori. George Forsythe, tra gli scienziati che hanno più contribuito a edificare la computer science intorno alla metà del XX secolo, vedeva la distanza tra le nostre attese e l'esito di un'elaborazione automatica in termini ancora più stringenti, commisurati alla reale imponderabilità di un processo che rimane di solito invisibile all'occhio umano, nascosto in complesse procedure con miliardi di operazioni affette da errori. Queste erano le sue parole: «Il fatto che il CPC [IBM Card-Programmed Calculator] dava in genere una risposta sbagliata quando io conoscevo la risposta esatta, faceva sì che mi chiedessi con meraviglia come poteva essere per chi non avesse alcuna idea di che cosa aspettarsi».

Ancora nel 1967 Forsythe notava che nessuno era in grado di risolvere una semplice equazione quadratica con un calcolatore senza rischiare perdite di precisione, oppure crescite o diminuzioni incontrollate di numeri tali da provocare l'arresto del calcolo. La dimensione dei calcoli era certo la preoccupazione maggiore, ma coerentemente con l'aritmetica di macchina una semplice somma di numeri - quale interviene nella soluzione analitica di un'equazione quadratica - può dare un risultato completamente errato. E questo, come si suole dire, un caso di malcondizionamento: un piccolo errore sugli addendi può produrre un grande errore sulla loro somma. «Può» suona come una tenue rassicurazione; illusoria, tuttavia, perché l'incertezza è la prima ragione dell'imprevedibilità e, se non sappiamo se una semplice somma andrà a buon fine, non potremo essere così fiduciosi nell'affidare a un processo con miliardi di operazioni automatiche le nostre decisioni in ambito politico, sociale o economico. Come spiegava James Wilkinson, potremmo però fidarci di una distribuzione statistica degli errori che ne eviti l'amplificazione. A dire il vero, come lo stesso Wilkinson riconosceva, Von Neumann e Goldstine avevano ottenuto nel 1947 un primo risultato di natura deterministica di grande rilievo, individuando un preciso limite dell'errore che, nel calcolo dell'inversa di una matrice (simmetrica e definita positiva), non può certamente essere superato. Ma la mente del computer, precisava pure Alexander Ostrowski, ha un marcato orientamento di natura statistica, ed è naturale chiedersi se l'uso esplicito di nozioni statistiche possa supplire ogni informazione di qualche valore. Il caso ci aiuta, soleva dire Bruno De Finetti.

| << |  <  |  >  | >> |

Pagina 144

Le matrici, inizialmente introdotte nel XIX secolo grazie all'opera di James J. Sylvester e di Arthur Cayley, sono state usate, dal primo Novecento, come strumento di elaborazione numerica di particolari problemi di interesse fisico, ingegneristico o economico. Il significato di questa elaborazione andava ben oltre lo specifico interesse applicativo: l'intera società, avvertiva Norbert Wiener intorno alla metà del XX secolo, può essere compresa grazie allo scambio di informazione e all'analisi dei messaggi che intercorrono non solo tra uomini, ma anche tra uomo e macchina e tra macchina e macchina. Se nel 1910 Lewis F. Richardson usava efficienti algoritmi matriciali per elaborare previsioni di eventi atmosferici, dalla teoria delle serie temporali - sviluppata negli anni Quaranta da Wiener - Norman Levinson poteva evincere una tecnica matriciale di previsione e di filtraggio di segnali. Le matrici trovate da Levinson avevano una struttura speciale (detta di Toeplitz), che divenne uno dei riferimenti esemplari per capire come le strutture matematiche possono incidere sull'efficienza di calcolo.

A Forsythe, nel 1967, si deve la prima idea di cercare di definire l'informazione (informational content) di una matrice, un problema trattato ora, più o meno esplicitamente, in tanti e tali ambiti da rendere ardua una definizione soddisfacente e conclusiva; anche se appare certa l'opportunità di distinguere l'informazione di una matrice da quella, più generale, di una mera sequenza di simboli, secondo la classica teoria di Claude Shannon , o secondo il criterio algoritmico di Andrej N. Kolmogorov e di Gregory Chaitin , rispettivamente negli anni Sessanta e Settanta.

Le matrici di enormi dimensioni che intervengono nei più disparati problemi dell'informatica e della matematica applicata esprimono al meglio quel salto improvviso, dal «finito» al «finito molto grande», che la drammatica contrapposizione tra finito e infinito, nel periodo della crisi dei fondamenti tra fine Ottocento e inizio Novecento, non aveva minimamente previsto. Prima di Forsythe, tuttavia, era stato John von Neumann a capire l'importanza di questo tema, nel suo trattato sull'errore di calcolo dell'inversione di una matrice del 1947 (assieme a Goldstine) e ancor prima in un articolo poco conosciuto del 1942 dal titolo emblematico Approximative Properties of Matrices of High Finite Order.

| << |  <  |