Autore Marco Malvaldi
CoautoreDino Leporini
Titolo Capra e calcoli
SottotitoloL'eterna lotta tra gli algoritmi e il caos
EdizioneLaterza, Roma-Bari, 2014, i Robinson / Letture , pag. 178, cop.fle., dim. 14x21x1,7 cm , Isbn 978-88-581-1192-5
LettoreCorrado Leonardo, 2015
Classe informatica: reti , informatica: sociologia , informatica: fondamenti , scienze cognitive , mente-corpo












 

| << |  <  |  >  | >> |

Indice


    Uno specchio efficientissimo                                          3


    PROBLEMI DI CARBONIO, SOLUZIONI DI SILICIO

1.  L'intuito potrebbe non bastare                                        6
    1. Il nostro cervello non è fatto per le probabilità, p. 10
    2. La simulazione: un modo efficace per accettare la realtà, p. 12

2.  Se non li puoi battere, unisciti a loro                              15
    1. Dai un punteruolo a una scimmia e guarda che succede, p. 18
    2. Dall'albero alla giungla: ovvero, dal singolo ente al caos, p. 23
    3. Primi, frustranti tentativi a mano, p. 24
    4. A caso, ma con giudizio: il metodo Metropolis, p. 25
    5. Dalla montagna al topolino, cioè alla molecola, p. 26
    6. Esplorare la giungla: elicottero contro machete,
        ovvero computer contro essere umano, p. 28

3.  Modellini di realtà                                                  30
    1. Fette di pane che cadono nel modo peggiore possibile, p. 30
    2. Come si costruisce un modello, p. 32
    3. Tipi di modelli e loro classificazione, p. 33
    4. Il modello: una necessità per rendere computabile il problema, p. 35

4.  Una copula distruttiva                                               38
    1. Cum hoc, ergo propter hoc?, p. 38
    2. Piccola storia della bolla immobiliare statunitense, p. 39
    3. Non so nulla di te: come faccio a fidarmi di te?, p. 41
    4. Siete troppi: come faccio a sapere di chi fidarmi?, p. 43
    5. La copula che ha generato il caos, p. 47

5.  High-frequency trading                                               51
    1. Umani contro computer: ovvero, robustezza contro velocità, p. 52


    LO STATO DELL'ARTE

6.  Realtà virtuale e simulazioni                                        58
    1. Colpi sotto la cintura, p. 61
    2. Problematiche relative a palle sempre più grosse, p. 65
    3. L"effetto farfalla" e l'importanza delle condizioni iniziali, p. 67
    4. Tecnica delle previsioni del tempo, p. 69
    5. Perché è difficile prevedere?, p. 73

7.  Il mondo è un teatro?                                                76
    1. Le origini della realtà virtuale:
        come sempre, la Grecia antica, p. 77
    2. Scenari virtuali, p. 78

8.  Un libro sulle mosche da 24 milioni di dollari                       86
    1. Strategie di prezzatura, p. 87
    2. Sembra Harry Potter: identificare un testo, p. 89
    3. Non ti amo più, l'ho letto su Facebook, p. 92
    4. Essere o non essere: sei un cane o no?, p. 94
    5. Umane debolezze: algoritmi superstiziosi, p. 98
    6. Sono come tu mi vuoi: bolle di filtri, p. 100


    QUELLO CHE CI ASPETTA

9.  Il futuro del lavoro: uomini o robot?                               104
    1. L'era della disoccupazione tecnologica, p. 104
    2. Per ora, no: in futuro, magari, p. 108
    3. Brutto, vero? Tranquilli, potrebbe andare peggio, p. 110
    4. Vi rivolgereste ad un avvocato robotico?, p. 113
    5. Un vecchio metodo per riprendersi il futuro
        (cioè, studiare...), p. 115

10. Algoritmi, avvocati e altri enti privi di scrupoli                  119
    1. Nuove beghe, vecchi rimedi, p. 119
    2. Chi è che uccide, l'uomo o la pistola?, p. 122
    3. Non ti sto guardando, ho solo un binocolo puntato su di te, p. 124
    4. Regole per non restare impigliati in una rete di responsabilità,
        p. 127
    5. Non è stata colpa mia, era lui a trovarsi esattamente sul
        bersaglio, p. 130
    6. Veramente, ci avevo pensato prima io..., p. 134


    A SEGUIRE: DUE PROVOCAZIONI INTELLETTUALI

11. Un computer può intuire?                                            140
    1. Quando l'ignoranza fa bene, p. 140
    2. Che cosa significa rispondere in modo intuitivo?, p. 141
    3. Un passo oltre: migliorare l'intuizione, p. 144
    4. Sì, ma a cosa serve tutto questo?, p. 145

12. Un computer può essere cosciente?                                   147
    1. Cartesio, gli zombi e i mulini di Leibniz, p. 148
    2. Certezze che vacillano, p. 151
    3. Un diverso punto di partenza, p. 157
    4. Dove posso trovarlo, esattamente?, p. 160
    5. Più di ieri, meno di domani, p. 164


    Epilogo. Che cosa mi avevi chiesto esattamente?                     169

    Indice dei nomi                                                     175


 

 

| << |  <  |  >  | >> |

Pagina 3

Uno specchio efficientissimo



Nel 1921, il pittore surrealista francese Philippe Soupault espose un quadro dal titolo Ritratto di un imbecille. Si trattava di uno specchio incorniciato.

Lungi dal dare degli idioti agli astanti, il messaggio di Soupault era piuttosto chiaro: uno specchio non fa altro che riflettere il tuo aspetto, quindi se sei così fesso da aspettarti di riconoscere in un ritratto le caratteristiche della stupidità probabilmente non ti stai comportando in modo troppo furbo, no?

Un computer funziona esattamente nello stesso modo: riflette in modo pedissequo, e univoco, quello che noi gli diciamo di fare. Così come lo specchio obbedisce alle leggi dell'ottica, il computer obbedisce a quelle dell'informatica.

Ciò che il computer sa fare è rispondere alle domande che l'uomo gli pone attraverso dei programmi scritti dall'uomo stesso. Un compito che potremmo svolgere anche noi, e che il computer sa fare molto più velocemente di noi, e...

Senza commettere errori, verrebbe la tentazione di dire.

Non proprio.

Il computer sa svolgere il compito in modo fedele alle nostre istruzioni. Se le nostre istruzioni contengono errori, il computer farà un errore. Se le nostre istruzioni contengono omissioni, il computer andrà in bambola.

Nell'antica Grecia, i filosofi potevano permettersi di frequentare l'agorà e di discutere di problemi che avrebbero cambiato il mondo per sempre: tanto, a coltivare i campi e a cucinare ci pensavano gli schiavi. Poi, fortunatamente, le concezioni sugli esseri umani sono cambiate. Oggi, abbiamo a disposizione uno schiavo efficientissimo, velocissimo e (ricordiamocelo) fedele alle nostre istruzioni. Che rifletterà, quindi, il nostro comportamento. Qualunque esso sia.

| << |  <  |  >  | >> |

Pagina 15

2. Se non li puoi battere, unisciti a loro



                                             "Vede, Herr Mozart, nella sua opera
                                         ci sono troppe note. Ecco, troppe note.
                                     Ne tolga qualcuna e l'opera sarà perfetta."
                                         "Vuole per favore dirmi quali, Maestà?"

                                                           Miloš Forman, Amadeus



Los Alamos, settembre 1946. Uno dei pochi casi in cui il luogo e la data dell'avvenimento focalizzano immediatamente il contesto in cui è ambientata la nostra storia. Nei laboratori dell'esercito statunitense, un gruppo di fisici, matematici e ingegneri provenienti da mezzo mondo sta tentando di capire come sfruttare l'energia nucleare per mettere a punto un'arma dalle capacità distruttive inimmaginabili.

A poche centinaia di metri dai laboratori, mentre i suoi colleghi lavorano indefessamente contro il tempo e contro ciò che rimane del Patto d'Acciaio, uno dei più brillanti matematici del gruppo sta facendo un solitario con le carte.

Non è che il matematico in questione, il polacco Stanislaw Ulam, se ne freghi dei suoi colleghi; semplicemente, il solitario fa parte della sua convalescenza, dato che il poveretto si sta riprendendo da una encefalite virale che lo ha portato sull'orlo della tomba. Poche settimane prima, infatti, Ulam è stato condotto d'urgenza in ospedale, con un mal di testa atroce e in preda ad allucinazioni; è stato immediatamente ricoverato e gli hanno trapanato il cranio, esponendo alla vista del chirurgo un cervello che non si presentava di quel color grigio chiaro che ci si aspetterebbe da un encefalo ben educato, ma di un preoccupante rosa acceso. Un colore, data la posizione, tutt'altro che roseo.

Stanislaw Ulam rimarrà in ospedale per qualche settimana tra la vita e la morte; in seguito, dopo essersi ripreso, la prima domanda che gli farà il medico sarà "quanto fa due più due?". Ulam trova la domanda talmente scema che risponde sorridendo, ma capisce che dietro c'è qualcosa di serio. I medici, in effetti, reputano improbabile che il paziente recuperi appieno tutte le sue funzionalità, e che possa tornare il matematico brillante e sicuro che tutti a Los Alamos hanno imparato ad apprezzare. E hanno ragione, Ulam non tornerà più quello di prima. Diventerà ancora meglio, anche se ancora non lo sa.

Come prima cosa, dopo la malattia Ulam vuole accertarsi che le proprie facoltà mentali siano rimaste inalterate; e quel solitario a cui sta giocando da giorni lo sta irritando parecchio, perché sono di più le volte che non gli riesce di quelle in cui lo completa.

A un certo punto, Ulam si chiede se per caso il fatto che il solitario non riesca spesso non sia dovuto tanto alla propria scarsa abilità nel gioco, quanto all'effettiva probabilità di vincita: ovvero, che le disposizioni iniziali del mazzo di carte che non permettono di vincere siano molte, mooolte di più di quelle che, se giocate correttamente, conducono a finire il solitario. E gli viene voglia di provare a calcolare questa probabilità di vittoria.

Il primo metodo che gli viene in mente è il più semplice di tutti: prendere in esame tutte le possibili configurazioni iniziali del mazzo e calcolare quante di queste conducono alla vittoria. Un po' come abbiamo fatto, nel capitolo precedente, simulando ogni possibile combinazione di premi e scelte per capire quale fosse la risposta corretta al problema di Monty Hall.

Purtroppo, tali combinazioni sono circa 10^64, ovvero un uno seguito da sessantaquattro zeri. Per eseguire a mente un simile calcolo, supponendo di coinvolgere tutti gli abitanti del pianeta (che per comodità porremo pari a dieci miliardi) e supponendo che ognuno sia in grado di analizzare una combinazione al secondo, se ciascuno di noi dedicasse al compito tutta la vita dopo cento anni (o 3.153.600.000 secondi, se preferite) avremmo svolto in percentuale circa lo 0.0000000000000000000000000000000000000000003 % del calcolo totale.

Comprensibilmente, Ulam non era certo di poter portare a termine un simile compito, specialmente in un periodo in cui si sentiva un po' deboluccio.

Ma a questo punto al buon vecchio Stanislaw (che, giova sottolinearlo, era un genio) venne in mente una scorciatoia. Per dirla con le sue stesse parole,

avevo notato che per avere un'idea della riuscita di un solitario (come il Canfield o altri, dove l'abilità del giocatore non è molto importante) sarebbe stato molto più pratico distribuire sul tavolo le carte, provare varie volte, ed annotare con quale frequenza si succedono i casi riusciti, piuttosto che calcolare tutte le possibilità mediante il mero calcolo combinatorio; infatti tali combinazioni, data la loro crescita esponenziale, sarebbero in numero così grande che [...] costituirebbero un problema intrattabile dal punto di vista del calcolo.

In pratica, Ulam pensava che se si metteva a fare il solitario a caso, senza stare a pensare a quale fosse la mossa migliore, la prima vittoria sarebbe arrivata quasi inevitabilmente dopo un certo numero di sconfitte; e, tra una vittoria e la successiva, ci sarebbero state quasi inevitabilmente alcune sconfitte. Annotando di volta in volta il numero di sconfitte che intercorrevano tra due vittorie, e facendone la media, Ulam sarebbe stato in grado di tirare fuori la frequenza con cui si presentava la vittoria, e quindi la probabilità della vittoria medesima. In altre parole, se una vittoria in media si presenta ogni quarantadue virgola sei giocate, vinci una volta su quarantadue virgola sei; la tua probabilità di vittoria è quindi uno (la volta in cui vinci) diviso quarantadue virgola sei (le volte che giochi), ovvero poco più di 0,024. O, se preferite le percentuali, il 2,4%.

| << |  <  |  >  | >> |

Pagina 18

1. Dai un punteruolo a una scimmia e guarda che succede

Per cominciare a vedere meglio quali possibili implicazioni abbia l'intuizione di Ulam nel mondo del calcolo scientifico, prendiamo un esempio classico: calcolare l'area di un cerchio. Seguendo la geometria euclidea, possiamo semplicemente misurarne il raggio r e calcolare quindi l'area come πr^2.

Applicando il metodo di Ulam, invece, potremmo fare una cosa diversa: prima, possiamo inscrivere il cerchio in un quadrato di cui conosciamo l'area. In secondo luogo, prendiamo il cartone su cui abbiamo disegnato il tutto e lo diamo in mano a una scimmia, insieme con un piccolo punteruolo. La scimmia, presumibilmente, comincerà a picchiettare sul foglio che le abbiamo dato col punteruolo, e lo sforacchierà a casaccio con allegra efficienza prima di rompersi le scatole e andare in cerca di una bella banana.

Ora, se ogni volta che fa un foro nel cartone la nostra amica scimmia lo fa veramente a caso, la probabilità che il foro venga fatto dentro il cerchio è direttamente proporzionale all'area del cerchio. Parimenti, la probabilità che il foro caschi dentro il quadrato è direttamente proporzionale all'area del quadrato.

A questo punto, basterà contare il numero di fori che cadono dentro al cerchio e dividerli per il numero di fori totali, che cadono sia dentro al cerchio che dentro al quadrato; tale rapporto sarà molto simile a quello tra l'area del cerchio e l'area del quadrato, se i forellini sono stati fatti in modo casuale, e il rapporto sarà tanto più vicino al numero che andiamo cercando quanti più sono i punti che sono stati presi.

Tutto questo, fino ad ora, ha il sapore un po' sciapo di un giochino intellettuale. Ma cosa succede se dovessimo calcolare l'area di una figura di questo genere?

[...]

L'ectoplasma di cui sopra non dispone di una formula analitica (di una ricetta) per calcolarne l'area, e questo mette Euclide in una certa difficoltà. Per il metodo della scimmia, invece, non c'è alcuna differenza: è sufficiente contornare la figura in questione con un rettangolo, o un poligono regolare qualunque di area nota, e poi darci di punteruolo. Dopodiché, si passa alla conta. Il fatto di avere contornato la figura con un rettangolo è fondamentale, in quanto ci permette di avere un valore di riferimento: prendendo come misura di paragone un ente di area nota possiamo esprimere in questo modo l'area della figura in centimetri quadrati (che sono uguali per tutti) invece che in numero di puntini (che tendono a variare in funzione dell'apparato sperimentale, dell'umore, di quello che la nostra amica scimmia ha mangiato la mattina, ecc.).

Quindi, quando si tratta di avere a che fare con il calcolo di un'area all'interno di un contorno privo di regole apparenti, il metodo di Ulam permette di trattarlo esattamente allo stesso modo di un cerchio. Ammetterete che non è male. Da un punto di vista ingegneristico, questo significa poter calcolare l'area di oggetti dal profilo altamente irregolare (ali di aeroplani, carrozzerie di automobili, nasi di suocere, ecc.). Ma il metodo di Ulam può fare anche di più.

Supponiamo infatti che la figura in questione vi venga data senza che voi possiate vederla. Magari siete ciechi, o magari la figura viene ritagliata nel metallo e vi viene data in mano dentro una scatola da scarpe, chiusa. Non avete accesso visivo alla figura, e quindi non sapreste descriverla nemmeno in modo qualitativo. Sareste in grado di calcolarne l'area?

La risposta è sì: basta munirsi di uno spillone abbastanza lungo da traforare la scatola nella sua interezza e bucare il coperchio in verticale. Le volte in cui lo spillone non trapassa la scatola saranno le volte in cui avete beccato la sagoma di metallo; altrimenti, lo spillone forerà la scatola con facilità. Contando il numero di fori che non trapassano il fondo e facendone il rapporto rispetto ai fori totali, e avendo a disposizione una scatola da scarpe con il coperchio rettangolare (di cui possiamo calcolare l'area con facilità) è possibile misurare l'area della sagoma senza avere la minima idea di che forma essa abbia.

A questo punto, la potenza del metodo di Ulam dovrebbe essere chiara a tutti, ma è un concetto talmente importante che vale la pena di dirlo esplicitamente: questo metodo è in grado di esplorare sistemi disordinati, sistemi privi di simmetria e di regole che li definiscano, sistemi che per essere descritti esplicitamente avrebbero bisogno di un enorme numero di variabili. Inoltre, è in grado di esplorare sistemi di cui ignoriamo informazioni fondamentali, che non potremmo descrivere nemmeno in modo qualitativo, e sui quali siamo in grado solo di eseguire esperimenti alla cieca.

Per la ricerca, questo tipo di possibilità è fondamentale. Nelle scienze di base, il lavoro di ricerca consiste spesso nel tentare di individuare il sesso di un gatto nero in una stanza buia, senza nemmeno sapere se il gatto c'è. O, nel nostro caso, senza sapere se c'è effettivamente una lastra nella scatola.

| << |  <  |  >  | >> |

Pagina 33

3. Tipi di modelli e loro classificazione

Volendo parlare di modelli, sono stati identificati vari tipi, spesso non mutuamente esclusivi, tra i quali ricordiamo i modelli idealizzati, i modelli analogici e i modelli fenomenologici.

Nei modelli idealizzati l'obiettivo è la semplificazione di qualcosa di complicato allo scopo di renderlo più maneggevole. Gli esempi in fisica sono numerosi, dal "punto materiale" – un sistema di dimensioni trascurabili dotato di massa – alle superfici prive di attrito.

In filosofia sono stati identificati due tipi distinti di idealizzazione: quella cosiddetta "aristotelica" e quella "galileiana". L'idealizzazione aristotelica equivale ad eliminare tutte le proprietà ritenute non di rilievo nel problema in esame. Un esempio è il modello matematico del sistema solare che descrive i pianeti prendendo in esame solo la loro forma e la loro massa, trascurando ogni altra proprietà. Le idealizzazioni galileiane modificano il sistema in esame, troppo complesso da descrivere, con uno notevolmente più semplice. Ad esempio, esagerando, si potrebbe sostituire un cavallo da corsa con una sfera rotolante su di un piano. Le idealizzazioni aristoteliche e galileiane non sono mutuamente esclusive. Per tornare all'esempio dei pianeti, si potrebbe, una volta limitata l'analisi alla loro forma e massa, assumere il pianeta come perfettamente sferico. Il modello della fetta di pane di Matthews è, in effetti, sia aristotelico (il burro sopra il pane non viene considerato) che galíleiano (la fetta di pane, con tutte le sue porosità e con una forma geometricamente non precisa, viene sostituita con un quadrato di materiale omogeneo). Un punto tipico dei modelli idealizzati è che il loro comportamento, al momento in cui ci apprestiamo a studiare il sistema, ci è ignoto: il caro John D. Bernal, per esempio, ignorava in che modo le sue palle di gomma si sarebbero disposte nello spazio, e per questo aveva bisogno della pazienza di Miss Wilkinson.

Esempi di modelli analogici (ovvero che funzionano per analogia) sono le rappresentazioni di un gas come un insieme di palle di biliardo o di un nucleo atomico come la goccia di un liquido. La potenza intrinseca del modello analogico è che si sa come si comporta. Il modello analogico non costruisce un nuovo oggetto, ma prende un oggetto già esistente di cui sia nota la teoria fisica e cerca di capire fino a che punto assomiglia al sistema che si è scelto di studiare. E non è detto che debba per forza essere più semplice: a conti fatti, una goccia di liquido è un sistema parecchio più incasinato di un nucleo atomico...

(Un altro esempio di analogia è quella cosiddetta formale: ovvero, quando le medesime equazioni matematiche possono essere utilizzate per descrivere sistemi anche molto differenti, come un pendolo e un circuito elettrico oscillante. Non ci sembra il caso di approfondirla in queste pagine.)

I modelli fenomenologici, detti anche empirici, usualmente si limitano a descrivere solo proprietà osservabili senza fornire dettagli sui meccanismi o sui processi che ne sono all'origine (ovvero trattano dati sperimentali senza utilizzare informazioni a priori sul sistema in esame). Un modello fenomenologico dell'orologio descrive la posizione delle lancette sul quadrante di un orologio al variare delle ore senza indagare la sua meccanica, ovvero il complesso di molle, ruote dentate e bilancieri alla base del suo funzionamento. Un modello che si preoccupa di spiegare come funziona un orologio, trasformandolo da "black box" in "white box", è detto invece modello meccanicistico.

Una teoria è un complesso di relazioni che, dalla comprensione del meccanismo, deriva leggi predittive e precisa nessi causa-effetto. Tornando all'esempio dell'orologio, l'aver compreso il legame tra numero di oscillazioni del bilanciere e rotazione delle lancette ci permette di prevedere quale sarà la loro posizione in un qualunque istante futuro; inoltre ci permette di comprendere che la causa della rotazione delle lancette è unica perché unico è il bilanciere.

Tutti questi dettagli non possono essere forniti da un modello fenomenologico, che non è in grado di comprendere che la correlazione tra le rotazioni delle due lancette è conseguenza del meccanismo costruttivo dell'orologio, motivato da una causa comune. Inoltre, la validità di un modello fenomenologico è limitata al campo di valori osservato: se osserviamo il moto di un orologio per 3-4 minuti potremmo concludere che la lancetta lunga si muove mentre quella corta sta ferma. Solo osservandolo per un certo numero di ore saremo in grado di stabilire (se non ci siamo rotti le scatole prima) che la lancetta corta si muove a una velocità che è un dodicesimo di quella della lancetta lunga.

Abbiamo stabilito che cos'è un modello, e in che cosa si differenzia da una teoria. A questo punto ci chiediamo: in che modo si usa, correttamente, un modello?

[...]

Però è sempre necessario rendersi conto che il computer, quando lavora, computa: ovvero, esegue un ordine. Risponde a una domanda che noi gli abbiamo posto con un modello che noi gli abbiamo programmato. Quando il computer risponde, ci sta dicendo come si comporta il nostro modello, non la realtà. Sembra una affermazione piuttosto banale, ma non sono pochi i casi in cui l'utente dimentica questa fondamentale differenza. Nel prossimo capitolo vedremo un esempio in cui le conseguenze di questo errore sono, purtroppo, sotto gli occhi di tutti.

| << |  <  |  >  | >> |

Pagina 67

3. L"`effetto farfalla" e l'importanza delle condizioni iniziali

Nella simulazione di un incidente automobilistico il problema principale è la traduzione in forma matematica di cosa accade nell'urto tra due veicoli. In pratica, la parte complicata è la scrittura della ricetta numerica da seguire in tutti i suoi passaggi per ottenere un risultato accettabile.

Al contrario, la predizione dell'orbita di un corpo celeste è un problema matematico ingannevolmente semplice: sappiamo benissimo che la forza che regola il moto dei corpi celesti è quella gravitazionale scoperta da Newton e riusciamo quindi a scrivere le equazioni, molto semplici, in un batter d'occhio. La ricetta, quindi, ce l'abbiamo. Il problema sorge appena proviamo a cucinare, cioè a risolvere le dette equazioni. Tale problema, comune anche ad altre simulazioni, ad esempio nelle previsioni meteo, si chiama "caos". Conoscete la storia dell"`effetto farfalla"?

Il concetto contemporaneo di "previsioni del tempo" nasce a Boston, Massachusetts, nel 1963. Per la precisione, nei laboratori di calcolo numerico del MIT. Per essere ancora più precisi, nasce quando un signore di nome Edward decide, in un momento di pigrizia, di essere un po' meno preciso del solito.

Il signor Edward sta facendo delle simulazioni numeriche di previsioni meteorologiche; siccome è un tipo preciso, ogni simulazione viene mandata due volte, con gli stessi valori iniziali, per verificare che diano esattamente gli stessi risultati. D'altronde, il signor Edward è noto per essere un po' maniaco: tanto per darvi un'idea, quando era bambino Ed teneva una tabella con le temperature massime e minime registrate con il suo termometro di fronte alla casa dei suoi genitori, a West Hartford.

Insomma, il signor Edward sta ultimando di scrivere l'input (le condizioni iniziali) della seconda prova quando, per risparmiare tempo, al posto della condizione iniziale precedente (un precisissimo e rigoroso 0,506127) scrive 0,506. Del resto, siamo alla terza cifra decimale, e la differenza è di circa lo 0,02%. Che cosa succederà mai?

Succede un casino.

Il risultato della simulazione è completamente diverso da quello della prova precedente, con il numero corretto alla sesta cifra. Edward (che è maniaco) prova e riprova, e dallo sbigottimento totale passa piano piano alla convinzione che quello che sta succedendo è dovuto all'effetto di una variazione delle condizioni iniziali di un fattore infinitesimale. Per dirla con le parole dello stesso Edward, "il battito d'ali di un gabbiano potrebbe cambiare il corso del tempo atmosferico per sempre".

Poi, per ragioni squisitamente poetiche, il gabbiano è diventato una farfalla, ed è stata posizionata in vari posti, fino a giungere alla versione più nota e catastrofica dell'aforisma: "il battito d'ali di una farfalla in Brasile potrebbe causare un tornado in Texas".

E il bello è che è vero.

Grazie ad Edward Lorenz, era ufficialmente nata la teoria del caos. Ovvero, la teoria dei sistemi che cambiano comportamento in modo radicale a seguito di un mutamento infinitesimale delle loro condizioni iniziali.


4. Tecnica delle previsioni del tempo

Prima di vedere da dove nasce questo caos, e per quale motivo il cambiamento di un'unghia possa provocare tutto 'sto casino, andiamo a vedere come sono fatti i modelli per la previsione del tempo atmosferico.

Fondamentalmente, un algoritmo per le previsioni meteorologiche ti deve dire che tempo farà domani in un dato posto, sapendo che tempo fa oggi in quel dato posto e nei dintorni. Per questo, lo schema di calcolo è così pensato:

1) divisione del mondo in griglia di punti

2) assegnazione delle condizioni iniziali

3) evoluzione temporale di un passo t (secondo, minuto, ora, ecc.)

4) valutazione delle previsioni ottenute

5) aggiornamento delle condizioni iniziali (ritorno al punto 2).

| << |  <  |  >  | >> |

Pagina 92

3. Non ti amo più, l'ho letto su Facebook

Tra le aziende più impegnate a comprendere i nostri sentimenti ci sono, ovviamente, i social network. Dove tutto è gratis, ma la pubblicità abbonda per tenere finanziariamente in piedi la baracca. Come renderla più mirata ed efficiente? Analizzando con opportuni algoritmi affettivi la diffusione delle emozioni.

Le emozioni sono il risultato di una complessa serie di stimoli psicofisici che corrono circa tremila volte più velocemente che il pensiero razionale. Si è a lungo pensato che molte delle nostre decisioni siano prese in modo razionale. Θ falso. La verità è che il pensiero razionale porta i clienti ad essere interessati, ma sono le emozioni che vendono – dai profumi alle idee politiche. E noi italiani un po' emotivi lo siamo, no? Si scoprono cose curiose osservando le nostre relazioni sui socíal network: ad esempio, che persone con stati d'animo simili tendono ad aggregarsi – le persone sorridenti attraggono i cuor contenti, i musoni i depressi, similes cum similibus. E ancora, che gli stati emotivi si diffondono fino a tre gradi di separazione: Alberto parla con Barbara che lo spiffera a Carlo che si confida con Daniela (la quale scopre che ha le corna). Il meccanismo della propagazione, una specie di catena di sant'Antonio, è catalizzato dai legami affettivi e su questo effetto intendono puntare molti strateghi del marketing online: fratelli e sorelle, amici del cuore, mogli, mariti e amanti sono con maggiore probabilità le persone a cui parleremo per primi dell'ultimo disco del cantautore preferito, dell'imperdibile film con la star hollywoodiana, del video visto da un milione di persone su YouTube. La parola chiave in questo contesto è meme, un neologismo che deriva dalla biologia, così definito dal Dizionario Treccani:

meme s. m. Singolo elemento di una cultura o di un sistema di comportamento, replicabile e trasmissibile per imitazione da un individuo a un altro o da uno strumento di comunicazione ed espressione a un altro (giornale, libro, pellicola cinematografica, sito internet, ecc.).

In pratica, un meme è uno di quei tormentoni, o contenuti "virali", che spopolano sulla rete. Il meme si diffonde più facilmente tra chi ha relazioni più forti. Quindi, vanno scovati nella cerchia delle persone con cui siamo in contatto. Chi sembra aver trovato la ricetta per identificare i legami affettivamente più solidi nella cerchia di relazioni di un utente è Facebook. Il suo algoritmo sembra essere così ficcanaso da riuscire a identificare tra le persone con cui siamo in contatto quella speciale. Speciale non vuol dire uno con cui parliamo ogni giorno – per dire, un collega d'ufficio –, speciale è il nostro amico d'infanzia a cui siamo legatissimi ma sentiamo di rado perché vive in una città diversa dalla nostra. Θ speciale la persona con cui dividiamo la nostra vita, una sorella o un fratello. A detta di chi l'ha messo a punto, l'algoritmo sembra anche avere fiuto per predire se una relazione è stabile e, nel caso, quando avrà termine.

Θ interessante dire due parole su quello che fa l'algoritmo. In pratica, misura una grandezza chiamata dispersione. La dispersione è il grado di connessione che esiste tra gli amici comuni delle due persone. Più la connessione è bassa, maggiore è la dispersione. E l'analisi statistica mostra che la dispersione è più alta tra due persone legate affettivamente. Messa così, sembra fantascienza, ma pensiamoci un attimo. Due persone che hanno relazioni con altre persone in gran parte in contatto tra loro non segnalano nulla su una loro eventuale relazione: potrebbero essere tutti impiegati nello stesso ufficio o soci del locale circolo caccia e pesca. Se però i due sono marito e moglie le cose sono diverse: la moglie potrebbe frequentare i soci del club degli scacchi a cui è iscritto il marito, mentre quest'ultimo potrebbe conoscere i colleghi di lavoro della moglie, due gruppi — il club e i colleghi di lavoro — quasi certamente senza mutue relazioni. Moglie e marito agiscono come ponti tra due gruppi sociali distinti e hanno relazioni ad alta dispersione; due colleghi di lavoro no. Sapete quante volte l'algoritmo scopre l'eventuale relazione tra due persone? Nel 60% dei casi. E se le due persone che hanno in corso una relazione, hanno bassa dispersione? Ahi... I ricercatori di Facebook hanno scoperto che i due hanno una percentuale più alta del 50% di tornare ad essere single di lì a due mesi. Tornando all'esempio di prima, se la moglie non sopporta gli scacchisti con cui il marito trascorre tutti i fine settimana, eviterà di frequentarli: la dispersione diminuisce. E, perché no, anche lo slancio amoroso tra í due piccioncini...

| << |  <  |  >  | >> |

Pagina 94

4. Essere o non essere: sei un cane o no?:

"Su internet nessuno sa che sei un cane". Questa fulminante battuta tra due cani impegnati a navigare in internet apparve in una celebre vignetta sulla rivista "New Yorker" nel 1993 ad opera di Peter Steiner. La scena riprodotta è diventata nel corso degli anni un'icona del noto problema dell'identità nella rete. In particolare, ed è questo che ci interessa, ci sono varie situazioni in cui chi naviga in internet è invitato a provare che è un essere umano e non un robot. Gli esempi sono numerosi: si va dal semplice inserire un messaggio in un blog, all'aprire un'utenza, al fare una ricerca su un popolare motore di ricerca, all'effettuare un acquisto online, come pure scaricare articoli dal sito di una rivista scientifica. I motivi per bloccare i robot sono altrettanto numerosi: impedire a qualche hacker buontempone di alterare un sondaggio online, o di creare qualche milione di falsi indirizzi email dai quali far partire messaggi spam o di bloccare un computer che cerca di impossessarsi della password necessaria per accedere a dati personali sensibili, relativi ad esempio alla propria situazione finanziaria o allo stato di salute.

Lo stesso Cartesio aveva provato a formulare un criterio per distinguere una macchina da un essere umano già nel 1600:

Qui in particolare mi ero fermato per far vedere che, se ci fossero macchine con organi e forma di scimmia o di qualche altro animale privo di ragione, non avremmo nessun mezzo per accorgerci che non sono in tutto uguali a questi animali; mentre se ce ne fossero di somiglianti ai nostri corpi e capaci di imitare le nostre azioni per quanto è di fatto possibile, ci resterebbero sempre due mezzi sicurissimi per riconoscere che, non per questo, sono uomini veri.

In primo luogo, non potrebbero mai usare parole o altri segni combinandoli come facciamo noi per comunicare agli altri i nostri pensieri. Perché si può ben concepire che una macchina sia fatta in modo tale da proferire parole, e ne proferisca anzi in relazione a movimenti corporei che provochino qualche cambiamento nei suoi organi; che chieda, ad esempio, che cosa si vuole da lei se la si tocca in qualche punto, o se la si tocca in un altro gridi che le si fa male e così via; ma non si può immaginare che possa combinarle in modi diversi per rispondere al senso di tutto quel che si dice in sua presenza, come possono fare gli uomini, anche i più ottusi.

L'altro criterio è che quando pure facessero molte cose altrettanto bene o forse meglio di qualcuno di noi, fallirebbero inevitabilmente in altre, e si scoprirebbe così che agiscono non in quanto conoscono, ma soltanto per la disposizione degli organi. Infatti mentre la ragione è uno strumento universale, che può servire in ogni possibile occasione, quegli organi hanno bisogno di una speciale disposizione per ogni azione particolare; ed è praticamente impossibile che in una macchina ce ne siano a sufficienza per consentirle di agire in tutte le circostanze della vita, come ce lo consente la nostra ragione.


In anni più recenti, precisamente nel 1950, il logico-matematico Alan Turing scrisse un articolo famoso in cui si poneva la domanda se le macchine fossero in grado di pensare. Consapevole della difficoltà di definire il pensare, Turing decise di evitare di avvilupparsi in questioni tra il filosofico e il teologico e di formulare una domanda meno insidiosa, esprimibile in modo non ambiguo: si chiese cioè se era possibile immaginare computer in grado di condurre un gioco di imitazione. Il gioco più o meno funziona così: un giocatore sta di fronte a una porta dietro la quale si trovano un computer e un uomo. Θ possibile, formulando una serie di domande, indovinare chi è il computer e chi è l'uomo? Secondo Turing la risposta è affermativa. Ovvero la pensa come Cartesio.

Nel 1991 il filantropo americano Hugh Loebner promise un premio di centomila dollari al primo computer che fosse riuscito a superare il test di Turing. Finora nessuna macchina ce l'ha fatta. Al giorno d'oggi si corre come lampi e si cercano test che con una singola domanda possano sciogliere l'enigma. Una delle proposte più recenti è stata formulata nel 2000 da alcuni ricercatori dell'università americana Carnegie Mellon e ha un nome strano, CAPTCHA, acronimo di Completely Automated Public Turing Test to Tell Computers and Humans Apart, ovvero: test pubblico di Turing completamente automatizzato per distinguere computer e umani.

Abbiamo incontrato spesso un CAPTCHA nel nostro vagabondare su internet: sono quelle immagini contenenti caratteri e numeri molto distorti e spesso attraversati da varie righe che ci viene richiesto di identificare. Per un essere umano è un compito relativamente semplice, mentre per un computer diventa decisamente più impegnativo. "Relativamente" vuol dire che anche per un umano non è semplice decifrare l'immagine e, tanto per dirne una, la cosa può diventare impossibile in presenza di problemi alla vista. Per questo viene spesso data la possibilità di ascoltare il testo raffigurato nell'immagine. Ciò non toglie che risolvere uno di questi puzzle è giudicato un compito spesso così frustrante da disincentivare anche le persone in carne e ossa dal visitare un portale e consigliare la loro rimozione – passo compiuto dopo numerose proteste anche dalla Ryanair nel novembre del 2013 –, senza contare che i robot cominciano ad essere in grado di risolverli e, se non ci riescono loro, alcune imprese hanno già iniziato ad affittare manodopera proveniente da Paesi in via di sviluppo per decifrarli al prezzo di un dollaro ogni mille indovinelli risolti.

Le contromosse sono animate da grandi dosi di inventiva: dalla richiesta di identificare sequenze di numeri e lettere si è presto passati alle immagini, che poi si è chiesto di posizionare in modo corretto. Ora siamo passati a semplici giochini in cui si chiede, ad esempio, di preparare una buona cioccolata, se possibile evitando di usare una cipolla, o piantare piante e fiori in un giardino, e non su un aeroplano.

Più compresa nel suo ruolo istituzionale, la Società americana di fisica chiede di riconoscere tra varie immagini quella che raffigura Einstein per poter accedere al suo sito. Possiamo darle torto?

| << |  <  |  >  | >> |

Pagina 110

3. Brutto, vero? Tranquilli, potrebbe andare peggio

Il terzo tipo di conflitto favorito dai miglioramenti tecnologici è quello tra capitale e manodopera. Questa contrapposizione si comprende osservando che la maggior parte dei processi produttivi richiede sia macchinari – e relativo software – sia manodopera. Se la tecnologia permette di sostituire un uomo con una macchina, i proprietari delle attrezzature possono guadagnare di più dalla vendita dei loro prodotti, mentre si indeboliranno le spinte per rivalutare i salari. In effetti questo è quanto accaduto negli ultimi anni non solo nel nostro Paese, ma anche in Inghilterra e Germania, dove le retribuzioni sono stagnanti da una decina di anni. In altri termini, il progresso tecnologico promuove una ridistribuzione del reddito tra chi fornisce manodopera e chi fornisce macchinari e software.

Che lo sviluppo tumultuoso della tecnologia sia fonte più di crescenti disuguaglianze sociali che di nuove opportunità di occupazioni lo ha di recente segnalato Robert Reich, economista ad Harvard ed ex ministro del Lavoro dell'amministrazione Clinton, in un documentario uscito nel 2013 dal titolo Inequality for All. Reich sottolinea che mentre negli ultimi trent'anni l'economia americana è praticamente raddoppiata, i guadagni se li sono divisi in pochi: l'1% dei Paperoni incamera il 20% di tutta la ricchezza prodotta, tre volte di più di quanto succedeva trent'anni fa, e i 400 americani più ricchi possiedono più dei 150 milioni di americani più poveri. Secondo Noah Smith, giovane professore alla Stony Brook University di New York, per molto tempo circa i due terzi della ricchezza prodotta sono stati spesi in salari, mentre un terzo è finito in redditi da capitale: dividendi azionari, affitti, interessi finanziari. Tuttavia, negli ultimi dieci anni Smith ha rilevato che il vento è cambiato e ora solo il 60% della ricchezza è impiegata per pagare salari.

Qualcuno pensa che sia stato l'ingresso nel mercato globale dell'enorme forza lavoro cinese a causare questa diminuzione. Θ la legge della domanda e dell'offerta: più ce n'è, meno te la pago. Questo punto di vista è quello espresso dagli ottimisti, che ritengono che le cose si riequilibreranno da sole non appena la Cina avrà sviluppato un consistente capitale finanziario. Tuttavia, esiste anche uno scenario alternativo meno roseo, quello di cui stiamo parlando da un po': forse la diminuzione della spesa in salari è causata proprio dall'arrivo della tecnologia, che ha reso economicamente svantaggioso utilizzare manodopera in alcuni settori favorendo la sua sostituzione con più efficienti robot. L'economista premio Nobel Paul Krugman ha recentemente osservato che, dopo un periodo di delocalizzazione selvaggia di attività manifatturiere in Cina, le pecorelle stanno tornando all'ovile. Un rientro che potrebbe spiegarsi molto facilmente se si confrontano i costi produttivi in aziende riempite di robot e non di operai cinesi. Krugman descrive il fenomeno come un esempio di capital-biased technological progress, ovvero progresso tecnologico condizionato dal capitale (a scapito della manodopera), e alimenta il sospetto che la crescente competizione tra capitale e manodopera stimolata dai progressi tecnologici sia stata trascurata negli anni Novanta da molti economisti perché di vago sapore "marxista".

Chi ci sta rimettendo le penne in questo braccio di ferro tra uomini e robot? La classe media, come denuncia un altro economista, Tyler Cowen, che individua tre motivi in parte già sottolineati: 1) la crescente automazione con robot e algoritmi sempre più efficienti; 2) la globalizzazione, intesa soprattutto come competizione con la Cina; 3) modi migliori per valutare un lavoratore, concludendo magari che non vale il proprio salario. Cowen, infatti, sottolinea che l'uso sempre più massiccio dei computer in molte attività finisce per favorire la misura e la valutazione dei risultati ottenuti. Giornalisti e ricercatori, ad esempio, sanno molto bene quante persone leggono e commentano i loro articoli ormai scritti e distribuiti in buona parte in forma elettronica. Quindi, vuoi per risparmiare, vuoi per merito, la società tende sempre più a polarizzarsi, facendo scomparire chi sta in mezzo. Infatti, sei lavori persi su dieci provengono da lì. Spariscono contabili e impiegati di banca sostituiti da computer in grado di manipolare fatture e gestire conti correnti online. Spariscono orchestrine, tanto con una tastiera digitale ormai sembra di dirigere i Wiener Philarmoniker. Spariscono agenzie di viaggio travolte dai numerosi siti che permettono di prenotare alberghi, voli, treni e pacchetti vacanze. Spariscono molti negozi sostituiti da siti dove è possibile comprare di tutto a costi minori; in Italia non ci fidiamo ancora e solo il 2% delle transazioni si svolge su internet, ma in Inghilterra e Giappone (10-14%) e nella Repubblica Ceca (24%) i numeri sono diversi.

La tesi di Cowen è che in un futuro non lontano la tecnologia dividerà la società in due gruppi, quelli in grado di trarne profitto o che non ne vengono aggrediti, i vincitori. E tutti gli altri. L'assegnazione a uno dei due gruppi avverrà sulla base di criteri ipermeritocratici che stabiliranno il valore dell'individuo e che con più facilità forniranno giustificazioni per lasciare indietro gli altri, i non appartenenti alla classe degli ottimati. Secondo Cowen, errori e mediocrità saranno sempre più difficili da nascondere, per esempio per un medico.

Sembra uno scenario futuribile? San Francisco pare offrire già un esempio concreto. La città è vicina alla Silicon Valley, l'area con la massima concentrazione di aziende ad alta tecnologia, e molte delle persone che vi lavorano vivono nel territorio metropolitano della città californiana. Negli ultimi trentacinque anni la classe media è progressivamente diminuita a San Francisco mentre grandi sacche di povertà hanno iniziato ad emergere, incapaci di reggere all'impatto di un mercato immobiliare e di un costo della vita in costante crescita a causa della pressione esercitata da chi lavora – e guadagna – con la tecnologia. Una delle caratteristiche più inquietanti è la progressiva separazione delle esistenze tra chi lavora nella Silicon Valley e chi no: bus dedicati per trasportarli da casa al lavoro, sedi di lavoro sempre più simili a comunità autosufficienti e impenetrabili con dentisti e lavanderie incorporati.

Secondo il sito Great Place to Work le prime quattro aziende dove si lavora meglio al mondo sono tutte informatiche e con base negli Stati Uniti: al primo posto svetta Google, californiana come NetApp, che risulta terza. Questo splendido isolamento non vuol dire ovviamente che gli appartenenti alla comunità high-tech californiana siano disinteressati a quanto accade intorno a loro, tutt'altro. La Silicon Valley non è una filosofia, una rivoluzione o una causa. Θ un gruppo di aziende e di individui molto ricchi con interessi precisi. Talvolta questi interessi coincidono con quelli pubblici, e talvolta no. E quindi perché meravigliarsi se questa élite meritocratica, come ama definirsi, sta iniziando ad interessarsi alla vita politica cercando di trasferirvi i propri modelli aziendali?

| << |  <  |  >  | >> |

Pagina 147

12. Un computer può essere cosciente?


                                                Uccidere un uomo? No, no.
                                              Io potrei uccidere solo una
                                            qualsiasi forma di vita priva
                                         di coscienza: formiche, datteri,
                                                          assicuratori...

                                                              Woody Allen



I meno giovani ricorderanno un film di Alberto Sordi girato nel 1980, Io e Caterina. Caterina è un'instancabile cameriera-robot che Enrico Menotti, ricco uomo d'affari diviso tra moglie e amante, conosce in casa di un amico trasferitosi negli Stati Uniti. Al ritorno in Italia Enrico, deciso a rimettere ordine nella sua vita, va a vivere da solo e affida a una gemella di Caterina la cura delle faccende di casa. All'inizio tutto sembra filare liscio, finché Menotti non invita a casa la sua nuova compagna Elisabetta. Gli esiti sono disastrosi: Caterina in preda a una tremenda crisi di gelosia distrugge la casa, facendo scappare la povera Elisabetta a gambe levate.

Θ possibile che in futuro i robot si "umanizzino" e che emergano alcune caratteristiche tipiche dell'uomo, dalla capacità di apprendere – comune a tante specie animali –, fino alla comparsa della mente, ovvero l'insieme delle attività superiori del nostro cervello di cui siamo coscienti, quali la creatività, gli istinti, le emozioni e i sogni?

Come vedremo nel corso di questo capitolo c'è ancora molta strada da percorrere, ma qualche passo è stato già fatto: un gruppo di ricercatori della Scuola di Ingegneria e Scienze Applicate dell'Università di Harvard ha appena messo a punto un transistor "sinaptico" che apprende mentre esegue dei calcoli. Θ un esempio di circuito biologico artificiale che cerca di riprodurre alcune caratteristiche del nostro cervello. Tra queste, la più affascinante è certamente la capacità di far emergere una coscienza. I tentativi di sviluppare forme di intelligenza artificiale sono innumerevoli. Tra questi, una delle linee di ricerca più promettenti è il Soft Computing. Chi se ne occupa sviluppa modelli matematici di interconnessione ispirati alla struttura del cervello, detti reti neuronali, e algoritmi in grado di apprendere dai propri errori, detti evoluzionari, che si ispirano alle teorie di Darwin e utilizzano concetti come ereditarietà, mutazione genetica e selezione.

Quindi ci siamo? Tra un po' avremo costruito un qualche marchingegno animato da un software infarcito di algoritmi, e verrà fuori uno di noi, o almeno indistinguibile da noi? Una macchina che, sottoposta a un test di Turing, ci farà concludere che sì, è proprio un essere umano quello che sta rispondendo alle nostre domande?


1. Cartesio, gli zombi e i mulini di Leibniz

Cartesio non la pensava così. Nelle sue argomentazioni sulla metafisica il filosofo francese concludeva che materia e coscienza sono cose distinte, la res extensa e la res cogitans, un dualismo perfetto. Mettendo insieme rotelle, circuiti e algoritmi al massimo si ottiene quello che i filosofi odierni chiamano uno zombie, un'entità priva di qualunque forma di intelligenza.

Diverso il punto di vista di Leibniz , il matematico e filosofo tedesco vissuto a cavallo tra il XVII e il XVIII secolo. Nel tentativo di eliminare l'irriducibilità tra materia e coscienza proposta da Cartesio, Leibniz immaginò che esistessero delle unità ultime e indivisibili, dette monadi, che costituiscono tutte le sostanze note. Le monadi non possono essere influenzate da fattori esterni, quindi sono indipendenti, e racchiudono in sé in vario grado entrambi gli aspetti, materiale e spirituale, passando dall'estremo della monade inanimata di un granello di sabbia alla monade dominante dell'anima umana caratterizzata dal pensiero intellettuale. A nessuno è capitato di avere a che fare con una monade. Per rendere meno astratto il suo punto di vista, Leibniz propose un esperimento ideale – una visita all'interno di un mulino –, discusso nella proposizione n. 17 della Monadologia:

D'altra parte si deve riconoscere che la percezione, e quel che ne dipende, è inesplicabile mediante ragioni meccaniche, cioè mediante le figure e i movimenti. Immaginiamo una macchina strutturata in modo tale che sia capace di pensare, di sentire, di avere percezioni; supponiamola ora ingrandita, con le stesse proporzioni, in modo che vi si possa entrare come in un mulino. Fatto ciò, visitando la macchina al suo interno, troveremo sempre e soltanto pezzi che si spingono a vicenda, ma nulla che sia in grado di spiegare una percezione. Quindi la [ragione della] percezione va cercata nella sostanza semplice, non già nel Composto, cioè nella macchina. Così, è unicamente nella sostanza semplice che si possono trovare le percezioni e i loro mutamenti: solo in ciò, quindi, possono consistere tutte le azioni interne delle sostanze semplici.


Così, secondo Leibniz, la coscienza è distribuita all'interno delle varie parti elementari, le monadi, che costituiscono l'insieme. E precisa che non può essere cercata nelle loro interazioni meccaniche. Quindi, il filosofo tedesco, oltre ad avversare il dualismo cartesiano, manifesta attraverso l'immagine del mulino una critica anche al materialismo che riduce la coscienza dell'uomo a un semplice processo fisico. Leibniz riesce a non prestare il fianco a una domanda spinosa rivolta a Cartesio: qual è il punto di incontro di mente e corpo? Per spiegarlo, il filosofo francese chiamò in causa la ghiandola pineale, l'epifisi, una piccola struttura al centro del cervello. Un'idea che non convinse molte persone neanche nel Seicento.

Dov'è nascosta l'intelligenza? Secondo Leibniz va scovata nella possibilità di eseguire calcoli simbolici. Θ un'ipotesi facilmente criticabile ma di grande fascino, perché non prevede la presenza di un cervello e quindi permette di qualificare come intelligente anche un computer. Alcuni studiosi pensano che Leibniz abbia intuito la possibilità di sviluppare forme d'intelligenza artificiale, una tesi abbastanza dibattuta. Sicuramente però, come i moderni scienziati cognitivi, ha colto il legame tra linguaggio e operazioni della mente. Il sogno di Leibniz era ridurre ogni ragionamento a un calcolo da affidare a un calcolatore (il calculus ratiocinator) e che questo, manipolando simboli, potesse stabilire se un'affermazione è vera o falsa.

L'idea non era del tutto nuova. L'aveva già proposta tempo addietro un altro filosofo, Thomas Hobbes. Il progetto di Leibniz era molto ambizioso e prendeva in considerazione entrambi gli aspetti fondamentali di un moderno computer — il software e l'hardware — nell'intento di interpretare il pensiero umano in termini di opportuni algoritmi e comprendere se era possibile farli eseguire a una macchina. Da un lato, si pose il problema di costruire sia un alfabeto del pensiero umano dotato di opportuni simboli, sia una sintassi, un insieme di regole (algoritmi) per combinarli: insomma, un linguaggio. Dall'altro, arrivò a realizzare una macchina in grado di eseguire non solo somme e sottrazioni, come quella progettata da Blaise Pascal pochi anni prima, ma anche moltiplicazioni e divisioni sfruttando un ingegnoso meccanismo, detto ruota di Leibniz, ancora usato alla metà del secolo scorso.

Se a qualcuno questa prossimità tra linguaggio e intelligenza ricorda qualcosa, non si stupisca. Ne abbiamo già parlato a proposito del test di Turing dove il linguaggio è utilizzato, in forma di domande e risposte, per valutare se dietro la porta c'è un computer o un essere umano. Tra l'altro, il test di Turing applica una variante della cosiddetta Legge di Leibniz, ovvero il principio di identità degli indiscernibili: le cose delle quali l'una può essere sostituita dall'altra mantenendone intatta la verità, sono le stesse. Ovvero, se un computer supera il test di Turing deve considerarsi in tutto e per tutto indistinguibile da un uomo.


2. Certezze che vacillano

Turing raggiunse la conclusione che il sogno di Leibniz in linea generale era destinato a rimanere tale. Il matematico britannico era a conoscenza della sfida lanciata da David Hilbert , un suo illustre collega tedesco, che durante un Congresso Internazionale di Matematica tenuto a Parigi nell'agosto del 1900 aveva presentato una lista di ventitré problemi matematici fino allora irrisolti. Turing si era interessato in particolare al secondo, detto "problema della decisione" (in tedesco: Entscheidungsproblem), che si poneva più o meno la domanda se sia possibile automatizzare una delle attività più tipiche della matematica: la dimostrazione di un teorema. In modo un po' più formale, l' Entscheidungsproblem si chiede se in generale esista un algoritmo in grado di provare la verità di un'affermazione a partire da determinati assiomi usando le regole della logica. Questione spinosissima, che coinvolgeva i fondamenti stessi della matematica. L' Entscheidungsproblem ha implicazioni anche nel campo dell'intelligenza artificiale, perché nel 1879 il matematico e filosofo tedesco Friedrich Frege , considerato il padre della logica moderna, aveva sviluppato la Begnffsschrift, la scrittura per concetti, un sistema di regole capace di rendere conto di tutti i ragionamenti deduttivi umani, di fatto il calculus ratiocinator cercato da Leibniz.

Dare una risposta affermativa all' Entscheidungsproblem avrebbe quindi fornito un solido argomento per concludere che la mente umana opera come un computer. Nel 1936 Turing e il matematico americano Alonzo Church risposero negativamente a Hilbert: non esiste in generale un algoritmo che, utilizzando le regole logiche di Frege, può provare se un'affermazione è vera o falsa. Turing immaginò un dispositivo ideale in grado di eseguire qualunque algoritmo — oggi noto come "macchina di Turing" — e dimostrò che, in generale, non è possibile stabilire in anticipo se la macchina prima o poi giungerà a una conclusione, ovvero se riuscirà a completare l'esecuzione in un numero finito di passi. Il sogno di Leibniz non può quindi sempre tradursi in realtà.

Le conclusioni di Church e Turing non vietano però che ciò avvenga in casi particolari. Pochi o tanti? Abbastanza, come testimoniano i numerosi teoremi dimostrati dai matematici tramite l'uso di un computer, il primo dei quali, nel 1976, è stato quello "dei quattro colori", che prova che questo numero è sufficiente a impedire che in una mappa geografica due Stati contigui abbiano lo stesso colore.

La macchina di Turing è il prototipo ideale degli attuali computer e fu immaginata prima della loro effettiva realizzazione. Nell'intento di Turing essa cercava di imitare i computer umani, ossia gli stuoli di impiegati che negli anni Trenta eseguivano manualmente calcoli. Turing non poté fare a meno di domandarsi fino a quale livello potessero spingersi le macchine nell'imitazione degli esseri umani e nel 1950 scrisse un celebre articolo che inizia con la domanda "le macchine possono pensare?". Nella prima parte del lavoro Turing propone il test — che da lui prende il nome — per distinguere un computer da un essere umano. In seguito si concentra sulla possibilità che una macchina intelligente sia una macchina in grado di apprendere. Ricordate? Θ proprio ciò che fa il transistor "sinaptico" di cui abbiamo parlato all'inizio di questo capitolo: apprende mentre esegue dei calcoli. Turing ritiene che sia difficile sviluppare un algoritmo in grado di simulare la mente di un adulto; propone invece di simulare quella di un bambino per poi definire un processo educativo. Metaforicamente parla di un quaderno bianco su cui scrivere. Secondo Turing, quindi, riprodurre un uomo è un po' come creare un campione sportivo: servono sia grandi atleti, diciamo Usain Bolt o il nostro Pietro Mennea, sia grandi istruttori — che si chiamano, nel caso del giamaicano, Fitz Coleman e, per la Freccia del Sud, Carletto Vittori. Ma la situazione, probabilmente, non è così schematica: l'algoritmo che dona l'intelligenza forse non esiste.

Se il test di Turing propone un esperimento ideale in cui l'uso del linguaggio è strumento chiave per identificare forme di intelligenza artificiale, altri esperimenti ideali che coinvolgono il linguaggio sono stati immaginati per sostenere la tesi che la mente non è un computer e che i suoi processi non sono descrivibili come un algoritmo. Uno dei più celebri è quello detto della "stanza cinese", proposto dal filosofo John Searle in un articolo del 1980, e rielaborato in forma divulgativa qualche anno dopo:

Si consideri una lingua che l'individuo in questione non conosce. Io, per esempio, non conosco il cinese: ai miei occhi la scrittura cinese si presenta come una serie di scarabocchi senza significato. Supponiamo ora che io mi trovi in una stanza contenente scatole piene di ideogrammi cinesi e supponiamo che mi venga fornito un manuale di regole (scritto nella mia lingua) in base alle quali associare ideogrammi cinesi ad altri ideogrammi cinesi. Le regole specificano senza ambiguità gli ideogrammi in base alla loro forma e non richiedono che io li capisca. Le regole potrebbero essere di questo tipo: "Prendi uno scarabocchio dalla prima scatola e mettilo accanto a uno scarabocchio preso dalla seconda scatola". Supponiamo che fuori dalla stanza vi siano delle persone che capiscono il cinese e che introducano gruppetti di ideogrammi e che, in risposta, io manipoli questi ideogrammi secondo le regole del manuale e restituisca loro altri gruppetti di ideogrammi. Ora il manuale con le regole è il "programma di calcolatore", le persone che l'hanno scritto sono i "programmatori" e io sono il "calcolatore". Le scatole piene di ideogrammi sono la "base di dati", i gruppetti di ideogrammi che mi vengono forniti sono le "domande" e quelli che io restituisco sono le "risposte". Supponiamo ora che le regole del manuale siano scritte in modo tale che le mie "risposte" alle "domande" non si possano distinguere da quelle di una persona di lingua madre cinese. Per esempio, gli individui situati al di fuori della stanza mi potrebbero passare degli ideogrammi il cui significato, a me sconosciuto, sia: "Qual è il colore che preferisci?" e, seguendo le regole, io potrei restituire loro degli ideogrammi il cui significato, a me del pari sconosciuto, sia: "Il colore che preferisco è l'azzurro, ma mi piace molto anche il verde". Io supero così il test di Turing per la comprensione del cinese, eppure ignoro completamente questa lingua. E, nel sistema che ho descritto, non potrei in nessun modo giungere a capire il cinese, perché non avrei la possibilità di apprendere il significato di alcun simbolo. Come un calcolatore, io manipolo simboli, ma non annetto a questi simboli alcun significato.


La stanza cinese ha la struttura di un moderno computer. Ci sono un algoritmo (il manuale di regole), un processore (l'uomo) e una memoria (le scatole piene di ideogrammi). Secondo Searle, quanto accade nella stanza cinese prova che un computer non è intelligente nel senso a noi più familiare, perché non è in grado di associare un significato a un simbolo, ma al più può simulare le capacità cognitive dell'uomo: "Il cervello è un organo biologico specifico e le sue proprietà biochimiche specifiche gli consentono di causare la coscienza e altri tipi di fenomeni mentali. Le simulazioni al calcolatore dei processi cerebrali forniscono modelli degli aspetti formali". In sostanza Searle esclude che il calcolatore che nel 1996 ha sconfitto il campione del mondo di scacchi Gerry Kasparov sia intelligente, come pure un altro enorme computer, Watson, che l'IBM ha fatto partecipare nel 2011 a una nota trasmissione a quiz della televisione statunitense, sbaragliando i migliori concorrenti umani: sono solo varianti della stanza cinese.

Il punto di vista di Searle ha ricevuto numerose obiezioni. Ben ventisei erano già contenute in calce al suo lavoro del 1980. Ad esempio, è stato fatto notare che, anche se l'uomo nella stanza non sa nulla di cinese, tutto ciò che è nella stanza – l'uomo, il manuale e le scatole piene di ideogrammi – lo comprendono benissimo. Ma Searle, invece di demordere, parte in contropiede e assesta un nuovo colpo al cosiddetto computazionalismo, l'interpretazione dei processi mentali come algoritmi, ricorrendo nientepopodimeno che agli zombi, protagonisti di un nuovo esperimento ideale. Searle si è probabilmente ispirato a Plutarco, che formulò il paradosso detto della "nave di Teseo".

Si narra che la nave dell'eroe greco fosse stata conservata sostituendo le parti che via via si deterioravano. Trascorsi alcuni anni, nessuno degli elementi originali era più presente, benché la nave mantenesse intatta la forma originaria. La domanda che si pose Plutarco fu: la nave è sempre la stessa o le somiglia soltanto? Searle immagina una persona che, a causa di problemi cerebrali, sia sottoposta a vari interventi che a poco a poco sostituiscono tutti i neuroni con opportuni elementi elettronici. Che cosa accade quando anche l'ultimo neurone scompare? Searle descrive tre differenti scenari: 1) non succede nulla; 2) la coscienza svanisce, senza alterare il comportamento esteriore del soggetto; 3) il corpo si paralizza, pur rimanendo vivo. Il secondo scenario è quello dello zombie: uno zombie non sogna, non ha sentimenti, non sente nulla di fronte a un bel paesaggio, si arrampica in bicicletta sullo Stelvio più veloce di Pantani ma una volta in cima non prova la minima soddisfazione, rimane insensibile all'abbraccio di una persona. La coscienza, secondo Searle, è un fatto di natura prettamente biologica.

Dunque gli androidi sognano solo pecore elettriche? No, sostiene Philip Dick , autore del romanzo da cui è tratto il film Biade Runner diretto da Ridley Scott. La replicante Rachael si scopre infatti innamorata del poliziotto Deckard, confermando il motto "più umani degli umani" coniato dalla Tyrell — l'azienda da cui proviene.

Sembra impossibile comprendere la mente umana senza capire come funziona il cervello. Non tanto per permettere una corrispondenza di amorosi sensi tra umani e androidi o, più prosaicamente, per avere una brava domestica tuttofare come la Caterina del film interpretato da Alberto Sordi: afferrare i meccanismi che regolano quella sorta di budino che ospitiamo nella scatola cranica è vitale se si pensa anche solo alla necessità di diagnosticare quanto più in anticipo possibile malattie come il morbo di Parkinson e di Alzheimer, di migliorarne le terapie o di limitare l'uso della sperimentazione umana o animale per valutare l'efficacia di un farmaco. Così, aspettando di infilare un cervello in un computer, qualcuno sta usando il computer per capire meglio come funziona il cervello. Simulandolo, ovvero cercando di tradurne il comportamento in termini di opportuni algoritmi. E quel che sta tentando di fare Human Brain Project, una collaborazione tra numerosi centri di ricerca europei con ricadute in neuroscienza, medicina e informatica.


3. Un diverso punto di partenza

Θ ormai chiaro che la discussione sul problema mente-corpo introdotta da Cartesio e Leibniz è ancora oggi vivacissima e coinvolge figure apparentemente eterogenee. Abbiamo esaminato il punto di vista di filosofi, matematici, informatici e parlato dei progressi di fisici e ingegneri. Ma che cosa ne pensano i medici, che spesso scoperchiano scatole craniche e ne osservano il contenuto fin dalle prime lezioni di anatomia? Il cervello, all'interno del quale sviluppiamo i nostri pensieri e sorge la nostra coscienza, è un oggetto minuto e fragile: pesa circa un chilo e mezzo, è fatto per tre quarti di acqua, ha la consistenza di un budino, sta nel pugno di una mano e basta una piccola lesione nella corteccia occipitale perché perda coscienza dei colori. In questo pugnetto di materia si dirama una rete elettrica di circa cento miliardi di neuroni connessi da una quantità incalcolabile di sinapsi (circa diecimila a neurone), che consuma quanto una lampadina a basso consumo (più o meno 15 W), ovvero un milione di volte meno di Tianhe-2 — la "Via Lattea" —, il più veloce supercomputer del mondo realizzato in Cina, certamente meno furbo di una lumaca di mare che ospita nel suo piccolo cervello solo diecimila neuroni.

| << |  <  |  >  | >> |

Pagina 164

5. Più di ieri, meno di domani

C'è un altro aspetto che merita di essere approfondito circa il possibile sviluppo di una qualche forma di intelligenza in un computer. Per molto tempo si è creduto che il cervello fosse una struttura immodificabile, un centinaio di miliardi di neuroni collegati da una fittissima rete di sinapsi definita in modo immutabile al momento della nascita. Con il progredire della ricerca è invece diventato chiaro che specialmente nei primi anni di vita il cervello è tutt'altro che immobile: è plasmabile, o plastico come dicono i neuroscienziati, e si modifica a seguito di pressioni ambientali, cambiamenti fisiologici o esperienze avute nel corso degli anni. Ci sono evidenze di plasticità cerebrale anche in età adulta, anche se è stata espressa cautela sul coinvolgimento delle aree che sottintendono alle funzioni mentali più elevate. La neuroplasticità è un'arma a doppio taglio: è fondamentale nella formazione della memoria e nell'apprendimento ed è coinvolta nei miglioramenti spesso osservati dopo un danno cerebrale, ma indica anche che soprattutto i cervelli dei bambini sono estremamente vulnerabili durante il loro sviluppo, specialmente a causa dell'influenza dell'ambiente in cui vivono, sorgente continua di stimoli.

Le modifiche che avvengono nel nostro cervello nel corso degli anni ci allontanano almeno parzialmente dalla struttura iniziale decisa dal genoma; quindi, alla classica domanda se intelligenti si nasce o si diventa, la risposta sembra essere che entrambi gli aspetti sono importanti e forse il secondo è spesso quello decisivo, come vedremo poco oltre. Questa conclusione serva di pungolo per lo studente scoraggiato da un insuccesso scolastico, come pure di monito per i Lucignoli che, pur di scansare le fatiche dello studio, sono pronti ad autoassolversi poiché "non dotati".

I computer non sono plastici: la loro architettura — l'insieme di scheda madre, memoria, processore, hard disk e circuiteria varia —, una volta assemblata, non è modificabile. Diventa quindi importante chiedersi se la loro rigidità può essere di ostacolo allo sviluppo di una coscienza robotica. Nell'uomo lo è. Specialmente nei primi anni di vita lo sviluppo delle attività superiori del nostro cervello — l'intelligenza, la creatività, l'istinto e le emozioni — è spesso deciso dall'interazione della persona con l'ambiente in cui vive. Il legame tra coscienza ed esperienza è noto in campo filosofico, o almeno fortemente sospettato, da diversi secoli. Sul finire del Seicento William Molyneux, spinto dall'improvvisa cecità della moglie, propose un esperimento ideale e ne suggerì il risultato al collega John Locke. Locke, che era anche medico, concorda con Molyneux e ne parla nel suo Saggio sull'intelligenza umana:

A questo proposito, parlerò qui di un problema sollevato da quell'ingegnoso e studioso promotore della conoscenza reale, l'erudito e degno Monsieur Molineux, che mi ha fatto l'onore di scrivermi qualche mese addietro: "Supponete un cieco nato che sia oggi un adulto, al quale si sia insegnato a distinguere mediante il tatto un cubo ed una sfera, dello stesso metallo e, a un dipresso, della stessa grandezza, in modo che quando egli tocca l'uno e l'altro, sappia dire quale sia il cubo e quale la sfera. Supponete che, trovandosi posati sopra una tavola il cubo e la sfera, questo cieco venga ad acquistare la vista. Si domanda se, vedendoli prima di toccarli, egli saprebbe ora distinguerli, e dire quale sia il cubo e quale la sfera". Il penetrante e giudizioso Autore di questo quesito risponde senz'altro: "No, poiché, sebbene questo cieco abbia appreso per esperienza in qual modo il cubo e la sfera colpiscano il suo senso del tatto, egli però non sa ancora che ciò che lo colpisce nel tatto in questa o quest'altra maniera debba colpire i suoi occhi in questa o quest'altra maniera, né che l'angolo prominente di un cubo che gli preme la mano in modo ineguale debba apparire ai suoi occhi così come esso appare nel cubo". Sono del tutto d'accordo con l'opinione di questo signore, che sono fiero di chiamare un amico [sebbene non abbia ancora avuto la fortuna di vederlo di persona].


Vari fatti confermano che Molyneux aveva ragione: coscienza ed esperienza vanno a braccetto. Ne citiamo un paio. Il neurologo Oliver Sacks ha riportato il caso di un cinquantenne che ha riacquistato la vista dopo quarantacinque anni di cecità. Virgil, questo il suo nome, "vedeva senza vedere": esattamente come una banale videocamera registrava i segnali luminosi ma non era in grado di associarvi alcun significato. Era uno zombie, secondo il filosofo John Searle. Virgil, nonostante tutti gli sforzi della squadra medica che lo assisteva, non riuscì mai a "vedere" nel senso a noi familiare, cadendo in un profondo stato depressivo.

Un altro esempio di come l'interazione con l'ambiente che circonda un essere umano riesca a forgiarne la mente è narrato dal regista francese Franηois Truffaut nel film Il ragazzo selvaggio, ispirato alla storia di Victor, un bambino che viveva nei boschi in completa solitudine nella Francia del XIX secolo. Dopo il suo ritrovamento, Victor venne esaminato da uno stuolo di medici e apparve subito gravemente compromesso nello sviluppo mentale, nonostante fosse stato capace di sopravvivere per diversi anni in condizioni di estrema precarietà. Questo elemento indusse a ritenere che il deficit cognitivo non fosse presente al momento della nascita, ma che traesse origine dalla pressoché totale mancanza di vita di relazione durante gli anni trascorsi nei boschi. Nonostante la giovane età e l'aiuto di numerosi medici e psicologi, Victor non riuscì mai a colmare i gravi ritardi nello sviluppo mentale che aveva accumulato durante i primi anni di vita.

Questi due casi provano che il tempo perduto nella formazione mentale, ahimè, non si recupera più: "sed fugit interea fugit irreparabile tempus". Sviluppare la coscienza è un processo complesso e molto lento che si svolge nell'arco di numerosi anni durante il primo periodo della vita, sfruttando la grande plasticità del nostro cervello. Questa iniziale elasticità del cervello via via si perde nel corso della vita, specialmente se non è tenuta in forma (anche solo allenandosi con la "Settimana Enigmistica"), rendendo difficoltoso l'apprendimento non tanto della meccanica quantistica, ma di atti che a noi paiono elementari come la visione.

| << |  <  |