Autore Ray Kurzweil
Titolo Come creare una mente
SottotitoloI segreti del pensiero umano
EdizioneApogeo, Milano, 2013 , pag. 280, ill., cop.fle., dim. 13,6x21x2,3 cm , Isbn 978-88-503-3225-0
OriginaleHow to Create a Mind [2012]
TraduttoreVirginio B. Sala
LettoreCorrado Leonardo, 2014
Classe scienze cognitive , filosofia , epistemologia , biologia , evoluzione , sensi , mente-corpo , natura-cultura , informatica: fondamenti












 

| << |  <  |  >  | >> |

Indice


    Ringraziamenti                                        vii

    Introduzione                                           ix

 1  Esperimenti ideali sul mondo                            1

    Una metafora che arriva dalla geologia                  1
    A cavallo di un raggio di luce                          4
    Un modello unificato della neocorteccia                 9

 2  Esperimenti ideali sul pensiero                        11

 3  Un modello della neocorteccia: la teoria
    della mente basata sul riconoscimento di forme         19

    Una gerarchia di forme                                 19
    La struttura di una forma                              25
    La natura dei dati che fluiscono in un riconoscitore
        di forme nella neocorteccia                        35
    Autoassociazione e invarianza                          41
    Apprendimento                                          43
    Il linguaggio del pensiero                             47
    Il linguaggio dei sogni                                51
    Le radici del modello                                  53

 4  La neocorteccia biologica                              55

 5  Paleoencefalo, il cervello antico                      71

    Il cammino sensoriale                                  72
    Il talamo                                              76
    L'ippocampo                                            78
    Il cervelletto                                         79
    Piacere e paura                                        81

 6  Abilità trascendenti                                   85

    Attitudine                                             86
    Creatività                                             88
    Amore                                                  92

 7  La neocorteccia digitale che si ispira alla biologia   97

    Simulazioni del cervello                               99
    Reti neurali                                          106
    Codifica sparsa: quantizzazione vettoriale            110
    Leggere la mente con i modelli markoviani nascosti    115
    Algoritmi evolutivi (genetici)                        120
    LISP                                                  126
    Sistemi gerarchici di memoria                         128
    La frontiera mobile dell'IA:
        salire nella gerarchia delle competenze           129
    Una strategia per creare una mente                    143

 8  La mente come calcolatore                             149

 9  Esperimenti ideali sulla mente                        167

    Chi è cosciente?                                      167
    Bisogna avere fede                                    175
    Di che cosa siamo coscienti?                          181
    L'oriente è l'oriente e l'occidente è l'occidente     183
    Libero arbitrio                                       188
    Identità                                              203

10  La legge dei ritorni accelerati applicata al cervello 211

11  Obiezioni                                             227

Epilogo                                                   237

Note                                                      243
Indice analitico                                          275


 

 

| << |  <  |  >  | >> |

Pagina ix

INTRODUZIONE



                                   È più vasto del cielo — il cervello —
                                   Prova a metterli accanto —
                                   E l'uno l'altro conterrà sicuro —
                                   Ed inoltre — anche te —
                                   È più profondo del mare il cervello —
                                   Se tieni fisso l'uno all'altro azzurro —
                                   L'uno dall'altro resterà assorbito —
                                   Come spugna in un secchio —
                                   Pesa il cervello proprio quanto Dio —
                                   Tu sollevali insieme — libbra a libbra —
                                   Al massimo sarà la differenza
                                   Del suono dalla sillaba

                                   Emily Dickinson, Tutte le poesie,
                                   Mondadori Meridiani, Milano, 1997, p. 717.



L'intelligenza, il fenomeno più importante nell'universo, è in grado di trascendere i suoi limiti naturali e di trasformare il mondo a propria immagine. La nostra intelligenza di esseri umani ci ha consentito di superare le restrizioni della nostra eredità biologica e, così facendo, di modificare noi stessi. Siamo l'unica specie in grado di fare una cosa simile.

La storia dell'intelligenza umana inizia con un universo in grado di codificare informazione: questo è stato il fattore abilitante che ha reso possibile l'evoluzione. Come sia accaduto che l'universo fosse fatto proprio in questo modo è in sé una storia interessante. Il modello standard della fisica ha decine di costanti che debbono avere esattamente il valore che hanno, altrimenti gli atomi non sarebbero stati possibili e non ci sarebbero stati né stelle né pianeti, né cervelli né libri sul cervello. Il fatto che le leggi della fisica siano definite con tanta precisione da consentire l'evoluzione dell'informazione sembra incredibilmente improbabile. Tuttavia, secondo il principio antropico, non ne staremmo parlando, se le cose non fossero andate in questo modo. Dove qualcuno vede una mano divina, altri vedono un multiverso che si estende su un'evoluzione di universi in cui quelli noiosi (che non portano informazione) muoiono. Ma, indipendentemente da come sia successo che il mondo fosse così come è, possiamo iniziare la nostra storia con un mondo basato sull'informazione.

La storia dell'evoluzione si dipana con livelli crescenti di astrazione. Gli atomi (in particolare gli atomi di carbonio, che possono creare strutture ricche di informazione istituendo legami in quattro direzioni diverse) hanno formato molecole di complessità crescente; così, la fisica ha fatto nascere la chimica.

Un miliardo di anni più tardi, è evoluta una molecola complessa che chiamiamo DNA, in grado di codificare con precisione lunghe stringhe di informazione e di generare organismi descritti da quei "programmi". E così la chimica ha fatto nascere la biologia.

A ritmo sempre più rapido, gli organismi hanno evoluto reti di comunicazione e di decisione che chiamiamo sistemi nervosi, in grado di coordinare le parti sempre più complesse del loro corpo, nonché i comportamenti che ne facilitavano la sopravvivenza. I neuroni che costituiscono i sistemi nervosi si sono aggregati in cervelli capaci di esibire comportamenti sempre più intelligenti. In questo modo, la biologia ha fatto nascere la neurologia, e i cervelli a quel punto erano la punta avanzata della conservazione e manipolazione di informazione. Così siamo passati dagli atomi alle molecole, al DNA, ai cervelli. Il passo successivo è stato esclusivo della specie umana.

Il cervello dei mammiferi ha una capacità che non si trova in alcuna altra classe di animali: abbiamo la capacità di un pensiero gerarchico, di comprendere una struttura composta da elementi differenti organizzati in uno schema, di rappresentare quella disposizione con un simbolo e poi di usare quel simbolo come un elemento in una configurazione ancora più elaborata. Questo grazie a una struttura cerebrale che chiamiamo neocorteccia, che negli esseri umani ha raggiunto una soglia di sofisticazione e di capacità tale che possiamo chiamare idee queste forme. Attraverso un processo ricorsivo che non ha fine, siamo in grado di costruire idee che sono ancora più complesse: chiamiamo conoscenza questa grande matrice di idee collegate ricorsivamente. Solo Homo sapiens ha una base di conoscenza che a sua volta evolve, cresce esponenzialmente e viene trasferita da una generazione alla successiva.

Il nostro cervello produce anche un altro livello di astrazione, perché abbiamo usato l'intelligenza dei nostri cervelli insieme con un altro fattore abilitante, un'appendice opponibile (il pollice) per manipolare l'ambiente circostante e costruire utensili. Questi utensili hanno rappresentato una nuova forma di evoluzione, e la neurologia ha prodotto la tecnologia. Solo grazie ai nostri utensili la nostra base di conoscenza ha potuto crescere senza limiti.

La nostra prima invenzione è stata il racconto: il linguaggio parlato che ci ha permesso di rappresentare idee con enunciati distinti. Con la successiva invenzione del linguaggio scritto abbiamo sviluppato forme distinte per rappresentare simbolicamente le nostre idee. Biblioteche di linguaggio scritto hanno ampliato enormemente la capacità dei nostri cervelli senza alcun ausilio di conservare ed estendere la nostra base di conoscenza di idee strutturate ricorsivamente.

Si discute se altre specie, per esempio gli scimpanzé, abbiano l'abilità di esprimere in un linguaggio idee gerarchiche. Gli scimpanzé sono in grado di apprendere un insieme limitato di simboli del linguaggio dei segni, che poi possono usare per comunicare con i loro addestratori umani. È chiaro però che esistono limiti ben definiti alla complessità delle strutture di conoscenza che sono in grado di trattare. Le frasi che esprimono sono limitate a specifiche sequenze nome-verbo e non raggiungono l'espansione indefinita di complessità caratteristica degli esseri umani. Per avere un esempio interessante della complessità del linguaggio generato dagli esseri umani, basta leggere una delle spettacolari frasi, che si snodano per molte pagine, in un racconto o in un romanzo di Gabriel Garcia Màrquez: il suo racconto, lungo sei pagine, "L'ultimo viaggio del fantasma" è costituito da un'unica frase e funziona molto bene sia in spagnolo che nella traduzione italiana.

L'idea fondamentale dei miei tre precedenti libri sulla tecnologia (The Age of Intelligent Machines, scritto negli anni Ottanta e pubblicato nel 1989; The Age of Spiritual Machines, scritto nella seconda metà degli anni Novanta e pubblicato nel 1999; e The Singularity Is Near [ La singolarità è vicina ], scritto nei primi anni 2000 e pubblicato nel 2005) è che un processo evolutivo ha la caratteristica intrinseca di accelerare (in conseguenza dei suoi livelli di astrazione crescente) e i suoi prodotti crescono esponenzialmente in complessità e capacità. Ho denominato questo fenomeno "legge dei ritorni accelerati" (LDRA o LOAR, Law of accelerating returns) e riguarda sia l'evoluzione biologica sia quella tecnologica. L'esempio più impressionante della legge dei ritorni accelerati è la crescita esponenziale, notevolmente prevedibile, di capacità e rapporto prezzo/prestazioni delle tecnologie dell'informazione. Il processo evolutivo della tecnologia ha portato al calcolatore, che a sua volta ha reso possibile un grande ampliamento della nostra base di conoscenza e ha permesso la creazione di ampi collegamenti da un campo di conoscenza all'altro. Il Web stesso è un esempio potente e molto chiaro di quanto un sistema gerarchico sia in grado di inglobare una grande matrice di conoscenza pur conservandone la struttura intrinseca. Il mondo stesso è intrinsecamente gerarchico: gli alberi hanno rami; i rami hanno foglie; le foglie hanno venature. Gli edifici hanno piani; i piani hanno stanze; le stanze hanno porte, finestre, pareti e pavimenti.

Abbiamo sviluppato anche strumenti che ora ci consentono di capire la nostra stessa biologia in termini precisi di informazione. Stiamo rapidamente retroingegnerizzando i processi d'informazione che stanno alla base della biologia, compresi quelli del nostro cervello. Ora possediamo il codice oggetto della vita sotto forma di genoma umano, un risultato che è in sé un esempio straordinario di crescita esponenziale, poiché la quantità di dati genetici sequenziati è all'incirca raddoppiata ogni anno negli ultimi vent'anni. Ora siamo in grado di simulare al calcolatore come sequenze di coppie di basi diano luogo a sequenze di amminoacidi che si ripiegano in proteine tridimensionali, con le quali è realizzata tutta la biologia. La complessità delle proteine per le quali possiamo simulare il ripiegamento è aumentata con regolarità in conseguenza della crescita esponenziale continua delle risorse computazionali. Possiamo anche simulare come le proteine interagiscano fra loro in un complicato balletto tridimensionale di forze atomiche. La crescita costante delle nostre conoscenze biologiche è un aspetto importante della scoperta dei segreti intelligenti di cui l'evoluzione ci ha dotati e poi dell'uso di questi paradigmi ispirati alla biologia per creare tecnologie ancora più intelligenti.

È in corso un progetto grandioso, che coinvolge migliaia di scienziati e tecnici, per arrivare a comprendere fino in fondo il miglior esempio di processo intelligente: il cervello umano. È sicuramente l'impegno più importante nella storia della civiltà uomo-macchina. Ne La singolarità è vicina ho sostenuto che un corollario della legge dei ritorni accelerati è che è probabile non esistano altre specie intelligenti. In breve: se esistessero ne avremmo avuto notizia, dato il tempo relativamente breve che trascorre fra il momento in cui una civiltà possiede una tecnologia rozza (ricordate che nel 1850 il modo più rapido per inviare informazioni da un capo all'altro di una nazione erano i Pony Express) e quello in cui possiede una tecnologia in grado di uscire dal suo stesso pianeta. In questa prospettiva, la retroingegnerizzazione del cervello umano può essere considerata il progetto più importante nell'universo.

Finalità del progetto è capire esattamente come funziona il cervello umano e poi usare i metodi scoperti per capire meglio noi stessi, per riparare il cervello quando necessario e, cosa particolarmente pertinente per il tema di questo libro, per creare macchine ancora più intelligenti. Ricordate che quello che è in grado di fare l'ingegneria è proprio amplificare un fenomeno naturale. Pensate per esempio a quel fenomeno molto sottile enunciato nel principio di Bernoulli: c'è una pressione d'aria leggermente minore su una superficie curva in movimento che su una superficie piana in movimento. Dal punto di vista matematico, come il principio di Bernoulli produca la portanza alare non è ancora completamente definito dagli scienziati, ma gli ingegneri hanno preso questa idea, l'hanno focalizzata, e hanno creato tutto il mondo dell'aviazione.

In questo libro presento una tesi, che chiamerò pattern recognition theory of mind (PRTM), ovvero "teoria della mente basata sul riconoscimento di forme": sosterrò che descrive l'algoritmo fondamentale della neocorteccia (la regione del cervello a cui si devono percezione, memoria e pensiero critico). Nei capitoli che seguono descriverò come le ricerche recenti nelle neuroscienze, e i nostri esperimenti ideali, portino inevitabilmente alla conclusione che questo metodo sia utilizzato coerentemente in tutta la neocorteccia. Dalla teoria della mente basata sul riconoscimento di forme, insieme con la legge dei ritorni accelerati, consegue che saremo in grado di ingegnerizzare questi principi per estendere grandemente la potenza della nostra stessa intelligenza.

In effetti, questo processo è già iniziato da tempo. Ci sono centinaia di compiti e di attività che un tempo erano campo d'azione esclusivo dell'intelligenza umana e ora invece possono essere svolti da calcolatori, di solito con maggior precisione e su scala molto più grande. Ogni volta che inviate un messaggio di posta elettronica o ricevete una chiamata sul cellulare, algoritmi intelligenti instradano sul percorso ottimale le informazioni. Fate un elettrocardiogramma e l'esito arriva con una diagnosi del calcolatore che compete con quelle dei medici. Vale la stessa cosa per le immagini delle cellule del sangue. Algoritmi intelligenti identificano automaticamente le frodi su carte di credito, fanno volare e atterrare gli aerei, guidano sistemi d'arma intelligenti, controllano i livelli delle scorte di magazzino just-in-time, assemblano prodotti in fabbriche robotizzate e giocano a scacchi o a giochi raffinati come Go a livelli da campioni.

| << |  <  |  >  | >> |

Pagina xv

Nella teoria della mente basata sul riconoscimento di forme, descrivo un modello di come il cervello umano raggiunga questa capacità critica attraverso una struttura molto raffinata, progettata dall'evoluzione biologica. In questo meccanismo corticale ci sono particolari che non comprendiamo ancora a pieno, ma sappiamo abbastanza delle funzioni che deve svolgere da poter comunque progettare algoritmi che assolvano lo stesso compito. Cominciando a capire la neocorteccia, ora siamo nelle condizioni di amplificarne di molto la potenza, come il mondo dell'aviazione ha grandemente amplificato la potenza del principio di Bernoulli. Il principio operativo della neocorteccia si può dire sia l'idea più importante del mondo, poiché è in grado di rappresentare tutta la conoscenza e tutte le abilità, ma anche di creare nuova conoscenza. È alla neocorteccia, in fin dei conti, che va il merito di ogni romanzo, di ogni musica, di ogni dipinto, di ogni scoperta scientifica e di tutti gli altri multiformi prodotti del pensiero umano.

Le neuroscienze hanno estremo bisogno di una teoria che leghi fra loro le osservazioni, molto ampie ed estremamente diversificate, di cui si dà notizia quotidianamente. Una teoria unificata è un'esigenza fondamentale in tutti i campi principali della scienza. Nel Capitolo 1 descriverò come due sognatori ad occhi aperti abbiano unificato biologica e fisica, campi che in precedenza sembravano disperatamente disordinati e variegati, e poi indicherò come una tale teoria possa essere applicata al paesaggio del cervello.

Oggi incontriamo spesso grandi peana alla complessità del cervello umano. Se si ricercano le citazioni su questo tema, Google restituisce circa 30 milioni di collegamenti. (È impossibile tradurre questa cifra nel numero effettivo di citazioni, perché qualcuno dei siti Web indicati ha più citazioni e qualcuno non ne ha nessuna.) Lo stesso James D. Watson scriveva nel 1992 che "il cervello è l'ultima e la maggior frontiera biologica, la cosa più complessa che abbiamo scoperto finora nel nostro universo". Continuava spiegando che "contiene centinaia di miliardi di cellule collegate fra loro da milioni di miliardi di connessioni. Il cervello lascia la mente a bocca aperta".

Condivido quel che dice Watson del cervello come la maggior frontiera biologica, ma il fatto che contenga molti miliardi di cellule e milioni di miliardi di connessioni non comporta necessariamente che il suo metodo principale sia complesso, se possiamo identificare in quelle cellule e in quelle connessioni schemi facilmente comprensibili (e ri-creabili), in particolare schemi massicciamente ridondanti.

Riflettete un attimo su che cosa significhi complessità. Potremmo chiederci: una foresta è complessa? La risposta dipende dalla prospettiva che si sceglie. Si potrebbe notare che esistono migliaia di alberi nella foresta e che sono tutti diversi tra loro. Poi si potrebbe continuare notando che ciascun albero ha migliaia di rami e che ciascun ramo è del tutto diverso dagli altri. Poi si potrebbe continuare descrivendo le contorte peculiarità di ciascun singolo ramo. La conclusione a quel punto sarebbe che la foresta ha una complessità che va al di là della nostra più sfrenata immaginazione.

Ma questo approccio significherebbe letteralmente concentrarsi sugli alberi senza vedere la foresta. Certo esiste una grande quantità di variazione frattale fra gli alberi e fra i rami, ma per intendere correttamente i principi di una foresta si farebbe meglio a partire identificando gli schemi distinti di ridondanza con variazione stocastica (cioè casuale) che vi si trovano. Sarebbe corretto dire che il concetto di foresta è più semplice del concetto di albero.

E lo stesso vale per il cervello, che ha un'analoga enorme ridondanza, in particolare nella neocorteccia. Come vedremo in questo libro, sarebbe corretto dire che c'è più complessità in un singolo neurone che nella struttura complessiva della neocorteccia.

Il mio obiettivo in questo libro decisamente non è aggiungere un'altra citazione ai milioni di citazioni già esistenti che attestano quanto sia complesso il cervello, bensì impressionarvi con la forza della sua semplicità. Lo farò descrivendo come un fondamentale e ingegnoso meccanismo per riconoscere, ricordare e prevedere una forma, ripetuto centinaia di milioni di volte nella neocorteccia, spieghi la grande varietà dei nostri pensieri. Come dalle diverse combinazioni dei valori del codice genetico che si trova nel DNA del nucleo e dei mitocondri deriva una stupefacente varietà di organismi, così sulla base dei valori delle forme (di connessioni e di intensità sinaptiche) che si trovano nei e fra i nostri riconoscitori di forme nella neocorteccia si genera una schiera stupefacente di idee, di pensieri e di abilità. Come dice Sebastian Seung, neuroscienziato del MIT, "l'identità non sta nei nostri geni, ma nelle connessioni fra le nostre cellule cerebrali".

[...]

Fin qui ho parlato del cervello. Ma che cosa dire della mente? Per esempio, come fa una neocorteccia che risolve problemi a raggiungere la coscienza? E, intanto che siamo in argomento, quante menti coscienti abbiamo nel nostro cervello? Ci sono elementi fattuali che porterebbero a pensare ne esista più di una.

Un'altra domanda pertinente a proposito della mente riguarda il libero arbitrio: che cos'è? E noi lo possediamo? Ci sono esperimenti che sembrano indicare che cominciamo a realizzare le nostre decisioni ancor prima di essere coscienti di averle prese. Questo comporta che il libero arbitrio è un'illusione?

Infine, da quali attributi del nostro cervello dipende la formazione della nostra identità? Sono la stessa persona che ero sei mesi fa? Chiaramente non sono esattamente identico ad allora, ma ho ancora la stessa identità?

Vedremo quali siano le conseguenze della teoria della mente basata sul riconoscimento di forme anche per queste antichissime domande.

| << |  <  |  >  | >> |

Pagina 20

La neocorteccia umana, lo strato più esterno del cervello, è una struttura sottile, sostanzialmente bidimensionale, con uno spessore di 2,5 millimetri solamente. Nei roditori ha le dimensioni all'incirca di un francobollo ed è liscia. Un'innovazione evolutiva dei primati è che sia ripiegata in modo intricato al di sopra del resto del cervello con creste, solchi e rughe che ne aumentano l'area superficiale. Grazie a questo suo complicato ripiegamento, la neocorteccia costituisce la maggior parte del cervello umano: circa l'80 per cento, in peso. Homo sapiens ha sviluppato una fronte ampia per far spazio a una neocorteccia ancora più grande; in particolare, abbiamo un lobo frontale in cui trattiamo le forme più astratte associate con i concetti di livello superiore.

Questa sottile struttura è costituita fondamentalmente da sei strati, identificati con i numeri romani da I (lo strato più esterno) a VI. Gli assoni che emergono dai neuroni degli strati II e III si protendono verso altre parti della neocorteccia. Gli assoni (le connessioni di uscita) degli strati V e VI sono collegati principalmente all'esterno della neocorteccia: al talamo, al tronco cerebrale e al midollo spinale. I neuroni dello strato IV ricevono connessioni sinaptiche (in ingresso) da neuroni che si trovano al di fuori della neocorteccia, in particolare nel talamo. Il numero degli strati varia leggermente da regione a regione. Lo strato IV è molto sottile nella corteccia motoria, perché in quell'area riceve scarsi input da talamo, tronco cerebrale o midollo spinale; nel lobo occipitale (la parte della neocorteccia in cui di solito avviene l'elaborazione visiva) ci sono invece tre sottostrati ulteriori nello strato IV, per la notevole quantità di input che giungono in questa regione, anche dal talamo.

Un aspetto di estrema importanza della neocorteccia è la straordinaria uniformità della sua struttura fondamentale, che è stata notata per la prima volta dal neuroscienziato americano Vernon Mountcastle (1918-). Nel 1957 Mountcastle ha scoperto l'organizzazione a colonne della neocorteccia. Nel 1978 ha compiuto un'osservazione che per le neuroscienze ha la stessa importanza che ha avuto per la fisica l'esperimento con cui Michelson e Morley hanno confutato la teoria dell'etere nel 1887. In quell'anno Mountcastle ha descritto l'organizzazione notevolmente regolare della neocorteccia, ipotizzando che fosse composta da un unico meccanismo ripetuto continuamente, e ha avanzato l'idea che la colonna corticale ne sia l'unità fondamentale. La differenza di altezza di certi strati in regioni diverse, di cui abbiamo parlato, è dovuta semplicemente alla differenza fra i gradi di interconnettività con cui debbono trattare le diverse regioni.

Mountcastle ha ipotizzato l'esistenza di mini-colonne all'interno delle colonne, ma questa teoria non ha goduto di molto favore perché non erano visibili demarcazioni di simili strutture più piccole; un'ampia sperimentazione però ha mostrato che in effetti, nel tessuto neuronale di ciascuna colonna, esistono unità ripetitive. Io sostengo che l'unità fondamentale è un riconoscitore di forme e che costituisce il componente fondamentale della neocorteccia. A differenza dell'idea delle mini-colonne di Mountcastle, non esiste un confine fisico specifico di questi riconoscitori, perché sono collocati molto vicini l'uno all'altro in modo intrecciato, cosicché la colonna corticale è semplicemente un aggregato di un gran numero di riconoscitori. Questi sono in grado di collegarsi l'uno all'altro per tutta la loro vita, perciò la complessa connettività (fra moduli) che vediamo nella neocorteccia non è prespecificata dal codice genetico, ma si crea come riflesso delle forme che apprendiamo effettivamente nel tempo. Descriverò questa tesi in modo più dettagliato, comunque sostengo che questo è il modo in cui deve essere organizzata la neocorteccia.

Va notato, prima di approfondire ulteriormente la struttura della neocorteccia, che è importante modellizzare i sistemi al livello giusto. In teoria la chimica si basa sulla fisica e potrebbe essere derivata interamente dalla fisica, ma si tratta di un'operazione complessa e non fattibile in pratica, perciò la chimica ha definito le proprie regole e i propri modelli. Analogamente, dovremmo poter dedurre le leggi della termodinamica dalla fisica, ma non appena abbiamo un numero sufficiente di particelle da poter parlare di un gas invece che semplicemente di un aggregato di particelle, risolvere le equazioni per la fisica delle interazioni di ciascuna particella diventa un'impresa disperata, mentre le leggi della termodinamica funzionano molto bene. Anche la biologia, analogamente, ha le proprie regole e i propri modelli. Una singola cellula dell'insula pancreatica è di complessità enorme, in particolare se si vuole modellarla a livello molecolare; dare un modello di quello che fa effettivamente un pancreas, in termini di regolazione dei livelli dell'insulina e degli enzimi digestivi, è notevolmente meno complesso.

Lo stesso principio vale per i livelli di modellazione e comprensione del cervello. Certamente è una parte utile e necessaria della retroingegnerizzazione del cervello modellarne le interazioni al livello molecolare, ma l'obiettivo qui è essenzialmente perfezionare il nostro modello per spiegare come il cervello elabori le informazioni in modo da produrre significati cognitivi.

Lo scienziato americano Herbert A. Simon (1916-2001), a cui va il merito di aver contribuito a fondare il campo dell'intelligenza artificiale, ha scritto parole molto esplicite sul problema dell'analisi dei sistemi complessi al giusto livello di astrazione. Nel descrivere un programma di IA che aveva formulato, denominato EPAM (Elementary Perceiver And Memorizer, percettore e memorizzatore elementare), nel 1973 scriveva:

Supponiamo che decidiate di voler comprendere il mio misterioso programma EPAM. Posso fornirvene due versioni. Una sarebbe ... la forma in cui è effettivamente scritto — con tutta la sua struttura di routine e subroutine ... Altrimenti, potrei darvi una versione di EPAM in linguaggio macchina, dopo l'esecuzione della traduzione completa – dopo che, per così dire, è stato appiattito ... Non penso di dover argomentare a lungo quale di queste due versioni fornisca la descrizione più parsimoniosa, più dotata di significato e più legittima ... Non vi proporrò nemmeno la terza alternativa ... quella di non darvi alcuno dei due programmi, bensì le equazioni elettromagnetiche e le condizioni al contorno cui il computer, visto come sistema fisico, deve obbedire mentre si comporta come EPAM. Sarebbe l'apice della riduzione e dell'incomprensibilità.

Nella neocorteccia umana esistono circa mezzo milione di colonne corticali, ciascuna delle quali occupa uno spazio di circa due millimetri in altezza e mezzo millimetro in larghezza e contiene circa 60.000 neuroni (per un totale quindi di circa 30 miliardi di neuroni in tutta la neocorteccia). Una stima grezza è che ciascun riconoscitore di forme in una colonna corticale contenga circa 100 neuroni, perciò ci devono essere nell'ordine dei 300 milioni di riconoscitori di forme in tutta la neocorteccia.

[...]

Come vedremo più avanti, anche i nostri procedimenti e le nostre azioni comprendono forme o schemi e sono parimenti memorizzati in regioni della corteccia, perciò la mia stima della capacità totale della neocorteccia umana è nell'ordine di qualche centinaio di milioni di forme. Questa valutazione, sia pure grossolana, si accorda bene con il numero dei riconoscitori di forme, che ho stimato in precedenza a circa 300 milioni; perciò si può ragionevolmente concluderne che la funzione di ciascun riconoscitore di forme nella neocorteccia consista nell'elaborare una iterazione (cioè una fra le molte copie ridondanti della maggior parte delle forme nella neocorteccia) di una forma. La nostra stima del numero delle forme con cui un cervello umano è in grado di lavorare (compresa la necessaria ridondanza) e del numero delle strutture fisiche di riconoscimento di forme si rivelano avere più o meno lo stesso ordine di grandezza. Va notato che, quando parlo di "elaborare" una forma, intendo tutto quello che siamo in grado di fare con una forma: apprenderla, prevederla (anche per parti), riconoscerla e realizzarla (o attraverso un ulteriore lavoro di pensiero o mediante uno schema di movimenti fisici).

Trecento milioni di elaboratori di forme possono sembrare davvero molti, e in effetti sono stati sufficienti per consentire all' Homo sapiens di sviluppare il linguaggio verbale e scritto, tutti i nostri utensili e altre creazioni di varia natura. Queste invenzioni ne hanno rese possibili altre, dando luogo alla crescita esponenziale del contenuto informativo delle tecnologie descritta nella mia legge dei ritorni accelerati. Nessun'altra specie ha raggiunto lo stesso traguardo. Come ho già detto, alcune altre specie, come gli scimpanzé, sembra abbiano una capacità rudimentale di capire e produrre il linguaggio e anche di usare utensili primitivi: in fondo anch'esse hanno una neocorteccia, ma le loro abilità sono limitate per le minori dimensioni, in particolare del lobo frontale. Le dimensioni della nostra neocorteccia hanno superato una soglia che ha consentito alla nostra specie di sfruttare strumenti sempre più potenti, fra cui anche strumenti che ora ci mettono in condizioni di comprendere la nostra stessa intelligenza. In ultima istanza i nostri cervelli, combinati con le tecnologie che hanno prodotto, ci permetteranno di creare una neocorteccia sintetica che conterrà ben di più di soli 300 milioni di elaboratori di forme. Perché non un miliardo? O mille miliardi?

| << |  <  |  >  | >> |

Pagina 25

La struttura di una forma

La teoria della mente basata sul riconoscimento di forme che presento qui si fonda sul riconoscimento di forme da parte di moduli riconoscitori posti nella neocorteccia. Queste forme, così come anche i moduli, hanno una organizzazione gerarchica. Più avanti esaminerò le radici intellettuali di questa idea, fra cui il lavoro svolto anche da me nel riconoscimento gerarchico di forme negli anni Ottanta e Novanta e il modello della neocorteccia formulato da Jeff Hawkins (1957-) e Dileep George (1977-) nei primi anni del nuovo secolo.

Ciascuna forma (che è riconosciuta da uno dei 300 milioni di riconoscitori di forme stimati nella neocorteccia) si compone di tre parti. La prima è l'input, che consiste delle forme di livello inferiore che costituiscono la forma principale. Le descrizioni di ciascuna di queste forme di livello inferiore non debbono essere ripetute per ciascuna forma di livello superiore che ad esse fa riferimento. Per esempio, molte forme relative alle parole includeranno la lettera "A". Ciascuna di queste forme non deve ripetere la descrizione della lettera "A", ma userà sempre la stessa descrizione. Pensatelo come un puntatore nel Web: c'è una pagina web (cioè una forma) per la lettera "A" e tutte le pagine web (forme) che includono la "A" hanno un collegamento alla pagina "A" (la forma della "A"). Anziché collegamenti web, la neocorteccia utilizza le connessioni fisiche dei neuroni. C'è un assone che esce dal riconoscitore della forma "A" che si connette a più dendriti, uno per ciascuna parola che usa la "A". Non dimenticate il fattore di ridondanza: esistono più riconoscitori per la lettera "A" e ciascuno di questi molteplici riconoscitori della forma "A" può inviare un segnale ai riconoscitori di forme che incorporano la "A".

La seconda parte di ciascuna forma è il nome. Nel mondo del linguaggio, questa forma di livello superiore è semplicemente la parola "apple". Anche se usiamo direttamente la neocorteccia per comprendere ed elaborare ogni livello del linguaggio, la maggior parte delle forme che contiene non sono forme linguistiche in sé. Nella neocorteccia il "nome" di una forma è semplicemente l'assone che emerge da ciascun elaboratore di forme; quando quell'assone si attiva, vuol dire che è stata riconosciuta la forma corrispondente. L'attivazione dell'assone equivale all'urlo del riconoscitore di forme con il nome della forma: "Ehi, ragazzi, ho appena visto la parola scritta 'apple'".

La terza e ultima parte di ciascuna forma è l'insieme delle forme di livello superiore di cui è a sua volta parte. Per la lettera "A" è l'insieme di tutte le parole che contengono una "A". Queste, a loro volta, sono come collegamenti web. Ciascuna forma riconosciuta a un livello comunica al livello successivo che è presente parte della forma di quel livello più alto. Nella neocorteccia, questi collegamenti sono rappresentati da dendriti fisici che raggiungono i neuroni in ciascun riconoscitore di forme della corteccia. Ricordate che ciascun neurone può ricevere input da molti dendriti, ma produce un unico output su un assone. Quell'assone però a sua volta può trasmettere il segnale a più dendriti.

Per fare qualche esempio semplice, le forme semplici della pagina successiva sono un piccolo sottoinsieme delle forme utilizzate per costruire i caratteri a stampa. Notate che ciascun livello costituisce una forma. In questo caso i tratti sono forme, le lettere sono forme e anche le parole sono forme. Ciascuna di queste forme ha un insieme di input, un processo di riconoscimento (basato sugli input a quel modulo) e un output (che va al livello successivo di riconoscitori di forme).

| << |  <  |  >  | >> |

Pagina 38

Quando abbiamo esperienza dei nostri pensieri e dei nostri ricordi, "sappiamo" che cosa significano, ma non esistono come pensieri e ricordi facilmente spiegabili. Se vogliamo condividerli con altri, dobbiamo tradurli nel linguaggio. Anche questo compito è assolto dalla neocorteccia, mediante riconoscitori di forme addestrati con forme che abbiamo appreso ai fini di poter usare il linguaggio. Il linguaggio a sua volta è fortemente gerarchico ed è evoluto per sfruttare la natura gerarchica della neocorteccia, che a sua volta rispecchia la natura gerarchica della realtà. La capacità innata degli esseri umani di apprendere le strutture del linguaggio, di cui ha parlato Noam Chomsky , rispecchia la struttura della neocorteccia. In un saggio del 2002 di cui è coautore, Chomsky cita la "ricorsione" come spiegazione della facoltà del linguaggio peculiare della specie umana. La ricorsione, secondo Chosmky, è la capacità di comporre parti più piccole a formare elementi più grandi, e poi di usare questi blocchi come parti di altre strutture ancora, in un processo che continua analogamente. In questo modo siamo in grado di costruire le strutture complesse di frasi e paragrafi a partire da un repertorio limitato di parole. Anche se Chomsky non cita esplicitamente la struttura cerebrale, la capacità che descrive corrisponde esattamente a quello che fa la neocorteccia.

| << |  <  |  >  | >> |

Pagina 47

Il linguaggio del pensiero


                    Il sogno funge da valvola di sicurezza per il cervello sovraccarico.
                                        Sigmund Freud, L'interpretazione dei sogni, 1911


                    Cervello: un apparato con cui pensiamo di pensare.
                                                  Ambrose Bierce, The Devil's Dictionary



Per riassumere quello che abbiamo scoperto fin qui del modo in cui funziona la neocorteccia, fate riferimento al disegno del modulo di riconoscimento di forme a pagina 26.


a. Dei dendriti raggiungono il modulo che rappresenta la forma. Anche se può sembrare che le forme abbiano qualità bi- o tridimensionali, sono rappresentate da una sequenza monodimensionale di segnali. La forma deve essere presente in questo ordine (sequenziale) perché il riconoscitore di forme possa riconoscerla. Ciascuno dei dendriti è connesso in ultima istanza a uno o più assoni di riconoscitori di forme a un livello concettuale inferiore, che hanno riconosciuto una forma di livello inferiore che costituisce parte di questa forma. Per ciascuna di queste forme di input, possono esserci molti riconoscitori di forme di livello inferiore che generano il segnale di avvenuto riconoscimento della forma di livello inferiore. La soglia per il riconoscimento della forma può essere raggiunta anche se non sono stati attivati tutti gli input. Il modulo calcola la probabilità che sia presente proprio la forma che gli compete: questo calcolo considera i parametri "importanza" e "dimensioni" (vedi [f] più avanti).

Si noti che alcuni dei dendriti trasmettono segnali verso il modulo e alcuni invece segnali in uscita dal modulo. Se fra i dendriti di input a questo riconoscitore di forme tutti meno uno o due segnalano di aver riconosciuto le loro forme di livello inferiore, il riconoscitore di forme in questione invierà un segnale di ritorno ai riconoscitori di forme per il riconoscimento delle forme di livello inferiore che ancora non sono state riconosciute, indicando che esiste una forte probabilità che quella forma presto venga riconosciuta e che i riconoscitori di livello inferiore debbono essere preparati alla identificazione dei loro rispettivi componenti.


b. Quando questo riconoscitore identifica la sua forma (sulla base del fatto che sono attivati tutti o la maggior parte dei segnali dei dendriti di input), l'assone (output) di questo riconoscitore si attiva. A sua volta questo assone può connettersi a una intera rete di dendriti che portano a molti riconoscitori di forme di livello superiore per i quali questa forma è un input. Questo segnale trasmetterà informazioni sulla grandezza, in modo che i riconoscitori di forme al livello concettuale successivo possano tenerne conto.


c. Se un riconoscitore di forme di livello superiore riceve un segnale positivo da tutte o dalla maggior parte delle sue parti costituenti eccetto quella rappresentata da questo riconoscitore di forme, il riconoscitore di livello superiore può inviare un segnale indietro a questo riconoscitore, per indicargli che è attesa proprio la forma che gli compete. Un segnale del genere farà in modo che questo riconoscitore abbassi il suo valore di soglia, il che significa che sarà più probabile che invii un segnale lungo il suo assone (a indicare che pensa di aver riconosciuto la forma che gli compete) anche se alcuni dei suoi input sono assenti o poco chiari.


d. Segnali inibitori provenienti dal basso renderebbero meno probabile il riconoscimento della forma da parte del modulo riconoscitore. Questi segnali possono essere emessi se vengono riconosciute forme di livello inferiore che non sono compatibili con la forma associata a questo riconoscitore (per esempio, se un riconoscitore di forme di livello inferiore riconosce un paio di baffi, questo renderà meno probabile che questa immagine sia "mia moglie").


e. Anche segnali inibitori provenienti dall'alto renderebbero meno probabile il riconoscimento della forma da parte del modulo. Questi segnali possono essere emessi se si dà un contesto di livello superiore che non è compatibile con la forma associata a questo riconoscitore.


f. Per ciascun input esistono parametri memorizzati per l'importanza, le dimensioni attese e la variabilità dimensionale attesa. Il modulo calcola una probabilità complessiva della presenza della forma, sulla base di tutti questi parametri e dei segnali attuali, che indicano quali input sono presenti e la loro grandezza. Un modo matematicamente ottimale per ottenere questo risultato è usare la tecnica dei modelli markoviani nascosti. Quando questi moduli sono organizzati in una gerarchia (come nella neocorteccia o nelle simulazioni della neocorteccia), parliamo di modelli markoviani nascosti gerarchici.




Le forme innescate nella neocorteccia innescano a loro volta altre forme. Forme parzialmente completate inviano segnali verso il basso della gerarchia concettuale; le forme completate inviano segnali verso l'alto della gerarchia. Queste forme neocorticali sono il linguaggio del pensiero. Come il linguaggio, sono gerarchiche, ma non sono linguaggio in sé. I nostri pensieri non sono concepiti in primo luogo negli elementi del linguaggio, anche se, dato che anche il linguaggio esiste sotto forma di gerarchie di forme nella nostra neocorteccia, possiamo avere pensieri basati sul linguaggio. Per la maggior parte, però, i pensieri sono rappresentati in queste forme neocorticali.

| << |  <  |  >  | >> |

Pagina 68

Molti altri studi documentano queste caratteristiche della neocorteccia, ma ricapitoliamo quello che possiamo osservare in base alla letteratura nelle neuroscienze e ai nostri esperimenti ideali. L'unità fondamentale della neocorteccia è un modulo di neuroni, che stimo intorno al centinaio. Questi neuroni sono intrecciati fra loro in ciascuna colonna neocorticale in modo tale che i singoli moduli non sono visivamente distinti. La configurazione delle connessioni e delle intensità sinaptiche in ciascun modulo è relativamente stabile; sono le connessioni e le intensità sinaptiche fra un modulo e l'altro che rappresentano l'apprendimento.

Nella neocorteccia esistono nell'ordine dei milioni di miliardi (10^15) di connessioni, ma solo circa 25 milioni di byte di informazioni progettuali nel genoma (dopo compressione senza perdita), perciò le connessioni stesse non possono essere predeterminate geneticamente. È possibile che in parte questo apprendimento sia prodotto dalla neocorteccia che interroga il vecchio cervello, il paleoencefalo, ma questo di necessità rappresenterebbe comunque solo una quantità relativamente piccola di informazione. Le connessioni fra moduli vengono create in generale dall'esperienza (cultura e non natura).

Il cervello non ha una flessibilità sufficiente perché ciascun modulo di riconoscimento di forme nella neocorteccia possa semplicemente collegarsi a qualsiasi altro modulo (come invece possiamo fare con i programmi per i nostri computer o sul Web): è necessario che venga creata una connessione fisica effettiva, costituita da un assone che si connette a un dendrite. All'inizio abbiamo una grande riserva di possibili connessioni neurali. Come mostra lo studio di Wedeen, queste connessioni sono organizzate in modo ordinato e molto ripetitivo. La connessione terminale a questi assoni in stato di attesa avviene sulla base delle forme che ciascun riconoscitore neocorticale ha riconosciuto. Le connessioni non utilizzate alla fine vengono eliminate. Queste connessioni sono costruite in modo gerarchico e riflettono così l'ordine gerarchico naturale della realtà. Questa è la forza fondamentale della neocorteccia.

L'algoritmo di base dei moduli neocorticali di riconoscimento di forme è equivalente in tutta la neocorteccia, dai moduli "di basso livello" che trattano le forme sensoriali più elementari, ai moduli "di alto livello", che riconoscono i concetti più astratti. Le ampie prove relative alla plasticità e all'intercambiabilità delle regioni neocorticali testimoniano questa osservazione importante. Esiste una certa ottimizzazione delle regioni che gestiscono particolari tipi di forme, ma si tratta di un effetto del secondo ordine: l'algoritmo fondamentale è universale.

I segnali si muovono in senso ascendente e discendente lungo la gerarchia concettuale. Un segnale ascendente significa "Ho individuato una forma"; un segnale discendente, invece, "Mi aspetto che si presenti la forma che ti compete" ed è essenzialmente una previsione. I segnali, ascendenti o discendenti che siano, possono essere tanto eccitatori quanto inibitori.

Ciascuna forma è a sua volta in un ordine particolare e non si può invertire facilmente. Anche se una forma sembra avere aspetti multidimensionali, è rappresentata da una successione monodimensionale di forme di livello inferiore. Una forma è una successione ordinata di altre forme, perciò ciascun riconoscitore è intrinsecamente ricorsivo. La gerarchia può essere costituita da molti livelli.

Esiste molta ridondanza nelle forme che apprendiamo, in particolare quando sono importanti. Il riconoscimento di forme (come gli oggetti comuni e i volti) usa lo stesso meccanismo dei nostri ricordi, che non sono altro che forme che abbiamo appreso. Anch'essi sono immagazzinati come successioni di forme; fondamentalmente sono storie. Quel meccanismo è utilizzato anche per l'apprendimento e per l'esecuzione di movimenti fisici nel mondo. La ridondanza delle forme è ciò che ci consente di riconoscere oggetti, persone e idee anche quando subiscono variazioni e si presentano in contesti diversi. Anche i parametri di dimensione e variabilità dimensionale consentono alla neocorteccia di codificare la variazione in grandezza rispetto a varie dimensioni (come la durata nel caso del suono). Questi parametri di grandezza possono essere codificati, per esempio, semplicemente mediante forme molteplici con numeri diversi di input ripetuti. Così, per esempio, possono esserci forme della parola "steep" nel parlato, con numeri diversi di ripetizioni della vocale lunga [E], ciascuna con il parametro di importanza impostato a un livello moderato, che indica come la ripetizione della [E] sia variabile. Questo metodo non è matematicamente equivalente ai parametri dimensionali espliciti e non funziona altrettanto bene nella pratica, ma è un metodo per codificare la grandezza. La prova migliore che abbiamo dell'esistenza di questi parametri è che sono necessari nei nostri sistemi IA per raggiungere livelli di accuratezza vicini a quelli degli esseri umani.

| << |  <  |  >  | >> |

Pagina 86

Attitudine

Wolfgang Amadeus Mozart (1756-1791) scrisse un minuetto quando aveva cinque anni. A sei si esibì per l'imperatrice Maria Teresa alla corte imperiale di Vienna. Compose seicento brani musicali, fra cui 41 sinfonie, prima di morire a trentacinque anni, ed è considerato uno dei più grandi compositori della tradizione classica europea. Si potrebbe dire che avesse un'attitudine alla musica.

Ma che cosa significa nel contesto della teoria della mente basata sul riconoscimento di forme? Chiaramente, parte di quello che consideriamo un'attitudine è il prodotto della cultura, cioè dell'influenza dell'ambiente e di altre persone. Mozart era nato in una famiglia di musicisti: il padre Leopold era compositore e Kapellmeister (maestro di cappella) dell'orchestra di corte dell'arcivescovo di Salisburgo. Il giovane Mozart era immerso nella musica e il padre iniziò a insegnargli a suonare il violino e il clavicembalo all'età di tre anni.

Le influenze ambientali da sole però non spiegano completamente il genio di Mozart: esiste anche evidentemente una componente di natura. Ma quale forma ha? Come ho scritto nel Capitolo 4, regioni diverse della neocorteccia si sono ottimizzate (attraverso l'evoluzione biologica) per certi tipi di forme. Anche se l'algoritmo fondamentale di riconoscimento di forme dei moduli è uniforme in tutta la neocorteccia, poiché certi tipi di forme tendono a passare per determinate regioni (i volti nel giro fusiforme, per esempio), quelle regioni sono diventate più adatte all'elaborazione delle forme associate. Esistono però molti parametri che governano il modo in cui l'algoritmo viene effettivamente eseguito in ciascun modulo. Per esempio, quanto deve essere stretta la corrispondenza perché una forma venga riconosciuta? Come viene modificata quella soglia se un modulo di livello superiore invia un segnale a indicare che la forma relativa è "attesa"? Come vengono considerati i parametri dimensionali? Questi e altri fattori sono stati impostati in modo diverso in regioni diverse per poter essere adatti a particolari tipi di forme. Nel nostro lavoro con metodi analoghi in intelligenza artificiale, abbiamo notato lo stesso fenomeno e abbiamo utilizzato simulazioni dell'evoluzione per ottimizzare questi parametri.

Se regioni particolari possono essere ottimizzate per tipi diversi di forme, ne segue che i singoli cervelli saranno diversi tra loro per capacità di apprendere, riconoscere e creare certi tipi di forme. Per esempio, un cervello può avere un'attitudine innata per la musica perché è in grado di riconoscere meglio forme ritmiche, o di comprendere meglio la disposizione geometrica delle armonie. Il fenomeno dell'orecchio assoluto (la capacità di identificare e riprodurre esattamente una nota senza alcun ausilio esterno), che è correlato con il talento musicale, sembra abbia una base genetica, anche se si tratta di una abilità che deve essere sviluppata, perciò è probabile sia una combinazione di natura e cultura. La base genetica dell'orecchio assoluto è probabile si trovi al di fuori della neocorteccia nella preelaborazione delle informazioni uditive, mentre gli aspetti appresi stanno nella neocorteccia.

Esistono altre abilità che contribuiscono ai gradi di competenza, a quelli normali come a quelli da genio leggendario. Le abilità neocorticali, per esempio la capacità della neocorteccia di dominare i segnali di paura generati dall'amigdala (quando vengono disapprovati), svolgono un ruolo significativo, e altrettanto vale per attributi come la fiducia, le abilità organizzative e quella di influenzare gli altri. Una abilità molto importante che ho già notato è il coraggio di seguire idee che vanno contro l'ortodossia. Invariabilmente, persone che consideriamo geni hanno perseguito i loro esperimenti ideali in modi che inizialmente non erano né compresi né apprezzati dai loro pari. Anche se Mozart ha avuto dei riconoscimenti quando era in vita, la maggior parte dei giudizi positivi sono venuti dopo: è morto in povertà, sepolto in una fossa comune, e solo due altri musicisti si sono presentati alle sue esequie.

| << |  <  |  >  | >> |

Pagina 92

Amore


                    Chiarezza di mente significa anche chiarezza di passione; per questo
                    una mente grande e chiara ama ardentemente e vede distintamente ciò
                    che ama.
                                                                           Blaise Pascal

                    C'è sempre un po' di follia nell'amore. Ma c'è sempre un po' di
                    ragione nella follia.
                                                                     Friedrich Nietzsche

                    Quando avrete vissuto a lungo quanto me, non sottovaluterete la
                    potenza di un amore ossessivo.
                     Lumacorno, in J. K. Rowling, Harry Potter e il principe mezzosangue,
                                                            Salani, Milano, 2006, p. 176.

                    Mi piace sempre una buona soluzione matematica a un problema d'amore.
                        Michael Patrick King, dall'episodio "Take Me Out to the Ballgame"
                  ("Le regole del lasciarsi", stagione 2, episodio 1) di Sex and the City



Se non avete mai provato personalmente l'estasi d'amore, senza dubbio ne avrete almeno sentito parlare. Si può ben dire che una buona parte, se non la maggior parte dell'arte mondiale (racconti, romanzi, musica, danza, dipinti, spettacoli televisivi e film) sia ispirata dalle storie d'amore nelle loro prime fasi.

Recentemente è entrata in campo anche la scienza, e ora siamo in grado di identificare i cambiamenti biochimici che si verificano quando qualcuno si innamora. Viene liberata dopamina, che produce sensazioni di felicità e gioia. I livelli della noradrenalina si alzano, determinando accelerazione del battito cardiaco e un sentimento generale di entusiasmo. Queste sostanze chimiche, con la feniletilammina, producono entusiasmo, livelli di energia elevati, attenzione concentrata, mancanza di appetito e una forte attrazione per l'oggetto del desiderio. Cosa interessante, ricerche recenti condotte all'University College di Londra mostrano anche che si abbassano i livelli della serotonina, come accade anche nel disturbo ossessivo-compulsivo, coerentemente con la natura ossessiva delle fasi iniziali dell'amore. I livelli elevati di dopamina e noradrenalina spiegano il rafforzamento dell'attenzione di breve termine, gli stati di euforia e il forte desiderio delle prime fasi dell'amore.

Se questi fenomeni biochimici sembrano simili a quelli della sindrome "attacco o fuga", in effetti lo sono, con la differenza che qui si corre verso qualcosa o qualcuno; in effetti, un cinico potrebbe dire che si corre verso un pericolo, anziché sfuggirne. I cambiamenti sono anche del tutto coerenti con quelli delle prime fasi di un comportamento che dia dipendenza. "Love Is the Drug" [L'amore è la droga] dei Roxy Music descrive piuttosto bene questo stato (anche se il soggetto della canzone cerca di procurarsi la sua prossima dose d'amore). Anche gli studi sulle esperienze di estasi religiosa puntano agli stessi fenomeni fisici: si può dire che la persona che ha un'esperienza di questo genere si innamora di Dio – quale che sia la connessione spirituale su cui è concentrata.

Nel caso delle prime fasi dell'amore romantico, estrogeno e testosterone sicuramente recitano una parte importante nel definire l'impulso sessuale ma, se la riproduzione sessuale fosse l'unico obiettivo evolutivo dell'amore, gli aspetti romantici del processo non sarebbero necessari. Come scriveva lo psicologo John William Money (1921-2006), "la libidine è oscena, l'amore è lirico". La fase estatica dell'amore porta alla fase dell'attaccamento e infine a un legame di lungo termine. Ci sono sostanze chimiche che rafforzano anche questo processo, come l'ossitocina e la vasopressina.

| << |  <  |  >  | >> |

Pagina 140

Un altro limite del gioco Jeopardy! è che le risposte in genere sono brevi: per esempio, non fa domande come chiedere ai concorrenti di elencare i cinque temi principali di Le due città di Dickens. Se può trovare documenti che analizzino i temi di quel romanzo, una versione opportunamente modificata di Watson dovrebbe poter rispondere a domande del genere. Estrarre quei temi da solo dalla semplice lettura del libro, e non sostanzialmente copiando quel che ne hanno pensato (anche senza le loro parole) altri, è un'altra faccenda. Una cosa del genere costituirebbe una attività di livello più alto di quelle che può svolgere oggi Watson: è una di quelle attività che definisco "di livello test di Turing". (Detto questo, devo puntualizzare che neanche la maggior parte degli esseri umani escogita pensieri originali, bensì copia le idee dei propri pari e degli opinion leader.) Ad ogni modo, questo è il 2012, non il 2029, perciò non mi aspetto ancora una intelligenza al livello del test di Turing. Su un altro fronte ancora, vorrei sottolineare che valutare le risposte a domande come definire le idee centrali di un romanzo a sua volta sia tutt'altro che un compito immediato. Se si chiede a qualcuno chi abbia firmato la Dichiarazione d'Indipendenza, si può stabilire se la risposta sia vera o falsa. La validità di risposte a domande di livello più alto, come descrivere i temi di un'opera creativa, è molto meno facile da stabilire.

Vale la pena notare che, anche se le competenze linguistiche di Watson sono effettivamente un po' al di sotto di quelle di un essere umano istruito, è stato in grado di battere i due migliori giocatori di Jeopardy! del mondo. Ha potuto raggiungere un risultato del genere perché è in grado di combinare la sua competenza linguistica e la sua comprensione della conoscenza con la perfezione di recupero e la memoria estremamente precisa che possiedono le macchine. È per questo che abbiamo già in gran parte affidato loro i nostri ricordi personali, sociali e storici.

Non sono ancora pronto ad anticipare rispetto al 2029 la data per cui ho predetto che un computer supererà il test di Turing, ma i progressi che sono stati compiuti con sistemi come Watson dovrebbero rendere chiunque fiducioso del fatto che la comparsa di intelligenza artificiale a livello del test di Turing sia vicina. Se qualcuno volesse creare una versione di Watson ottimizzata per il test di Turing, probabilmente arriverebbe già oggi vicino all'obiettivo.

Il filosofo americano John Searle (1932-) recentemente ha sostenuto che Watson non è in grado di pensare. Citando il suo esperimento ideale della "stanza cinese" (di cui parlerò ancora nel Capitolo 11), afferma che Watson non fa altro che manipolare simboli e non ne comprende il significato. In realtà, Searle non descrive accuratamente Watson, perché la sua comprensione del linguaggio si basa su processi statistici gerarchici, e non sulla manipolazione di simboli. La caratterizzazione di Searle sarebbe accurata solo nel caso in cui considerassimo ogni passo dei processi ad auto-organizzazione di Watson "manipolazione di simboli". Ma, se così fosse, neanche il cervello umano dovrebbe essere giudicato capace di pensare.

È divertente e abbastanza ironico che si critichi Watson perché effettua solo una analisi statistica del linguaggio, contrapposta alla "vera" comprensione del linguaggio, dote degli esseri umani. L'analisi statistica gerarchica è esattamente quello che fa il cervello umano quando risolve più ipotesi sulla base di inferenze statistiche (e in effetti a tutti i livelli della gerarchia neocorticale). Sia Watson sia il cervello umano apprendono e rispondono sulla base di un modo simile di affrontare la comprensione gerarchica. Per molti aspetti la conoscenza di Watson è molto più ampia di quella di un essere umano; nessun essere umano può sostenere a buon diritto di aver padroneggiato tutta Wikipedia, che è solo una parte della base di conoscenze di Watson. Viceversa, un essere umano oggi può padroneggiare un numero maggiore di livelli concettuali rispetto a Watson, ma certamente non è un gap permanente.

| << |  <  |  >  | >> |

Pagina 143

Una strategia per creare una mente


                    Nel nostro cervello esistono miliardi di neuroni, ma che cosa sono i
                    neuroni? Solo cellule. Il cervello non ha alcuna conoscenza finché
                    non vengono istituite connessioni fra i neuroni. Tutto quello che
                    sappiamo, tutto quello che siamo deriva dal modo in cui sono connessi
                    i nostri neuroni.
                                                                          Tim Berners-Lee



Proviamo a usare quello che vi ho raccontato fin qui per cominciare a costruire un cervello. Cominceremo costruendo un riconoscitore di forme che soddisfi gli attributi necessari. Poi faremo tante copie del riconoscitore quante sono quelle necessarie per sostenere le risorse di memoria e di calcolo. Ciascun riconoscitore calcola la probabilità che la forma corrispondente sia stata riconosciuta. Nel farlo, tiene conto dell'ordine di grandezza osservato di ciascun input (in un continuum appropriato) e la mette in corrispondenza con i parametri appresi di dimensione e variabilità dimensionale associati a ciascun input. Il riconoscitore attiva il suo assone simulato se la probabilità calcolata supera una certa soglia. Questa soglia e i parametri che controllano il calcolo della probabilità della forma sono fra i parametri che ottimizzeremo con un algoritmo genetico. Poiché non è obbligatorio che tutti gli input siano attivi per avere il riconoscimento di una forma, si ha un riconoscimento autoassociativo (cioè il riconoscimento di una forma anche se è presente solo una sua parte). Teniamo conto anche di segnali inibitori (che indicano cioè che la forma è meno probabile).

Il riconoscimento della forma invia un segnale attivo lungo l'assone simulato di questo riconoscitore di forme. L'assone a sua volta è collegato a uno o più riconoscitori di forme che si trovano al livello concettuale successivo. Tutti i riconoscitori di forme connessi al livello concettuale successivo accettano questa forma come uno dei propri input. Ciascun riconoscitore inoltre invia segnali verso il basso, ai riconoscitori ai livelli concettuali inferiori, ogni volta che è stata riconosciuta una forma, per indicare che è "atteso" il resto della forma. Ogni riconoscitore ha uno o più di questi canali di input per i segnali di "atteso". Quando viene ricevuto in questo modo un segnale di "atteso", la soglia di riconoscimento per quel riconoscitore di forme viene abbassata (e la sua attivazione diventa più facile).

I riconoscitori di forme hanno la responsabilità di "cablarsi" ad altri riconoscitori al disopra e al disotto, nella gerarchia concettuale. Notate che tutti i "cavi" in una realizzazione in software operano attraverso collegamenti virtuali (che, come i collegamenti del Web, sono fondamentalmente puntatori di memoria) e non attraverso cavi reali. Questo sistema di fatto è molto più flessibile di quello del cervello biologico. In un cervello umano, le nuove forme debbono essere assegnate a un riconoscitore di forme fisico ed effettivo, ed è necessario che si creino nuove connessioni con un effettivo collegamento da assone a dendrite. Di solito questo significa prendere una connessione fisica preesistente che sia approssimativamente quella che serve e poi far crescere le necessarie estensioni di assone e dendrite per completare il collegamento,

Un'altra tecnica utilizzata nel cervello biologico dei mammiferi è partire con un numero elevato di connessioni possibili e poi eliminare le connessioni neurali non utilizzate. Se una neocorteccia biologica riassegna riconoscitori di forme corticali, che hanno già appreso delle forme, spingendoli ad apprendere materiali più recenti, le connessioni debbono essere riconfigurate fisicamente. Anche queste attività risultano molto più semplici in una implementazione in software: ci limitiamo ad assegnare nuove posizioni di memoria a un riconoscitore di forme e utilizziamo i collegamenti della memoria per le connessioni. Se la neocorteccia digitale vuole riassegnare risorse di memoria da un insieme di forme a un altro, semplicemente restituisce i vecchi riconoscitori alla memoria e quindi effettua la nuova assegnazione. Questa sorta di "garbage collection" e riassegnazione di memoria è una caratteristica canonica dell'architettura di molti sistemi software. Nel nostro cervello digitale faremo anche copie di backup dei vecchi ricordi prima di eliminarli dalla neocorteccia attiva, una precauzione che non possiamo prendere nel caso del nostro cervello biologico.

Per realizzare questo metodo di riconoscimento di forme gerarchico ad auto-organizzazione si possono utilizzare diverse tecniche matematiche. Il metodo che userei io sono i modelli markoviani nascosti gerarchici, e per vari motivi. Dal punto di vista personale, conosco bene questo metodo da decenni, avendolo utilizzato nei primi sistemi di riconoscimento del parlato e per il linguaggio naturale, a partire dagli anni Ottanta. Dal punto di vista generale del settore, si è accumulata più esperienza con i modelli markoviani nascosti che con qualsiasi altra impostazione per le attività di riconoscimento di forme; inoltre quei modelli sono usati ampiamente nella comprensione del linguaggio naturale. Molti sistemi per la comprensione del linguaggio naturale utilizzano tecniche che sono almeno simili, dal punto di vista matematico, ai modelli HHMM.

Badate che non tutti i sistemi a modelli markoviani nascosti sono completamente gerarchici. Alcuni ammettono solo gerarchie a pochi livelli: per esempio dagli stati acustici ai fonemi alle parole. Per costruire un cervello, vorremo che il nostro sistema possa creare tanti nuovi livelli di gerarchia quanti sono necessari. Molti sistemi a modelli markoviani nascosti non sono totalmente ad auto-organizzazione. Alcuni hanno connessioni fisse, anche se effettivamente potano molte delle loro connessioni di partenza consentendo il raggiungimento, attraverso l'evoluzione, di pesi di connessione nulli. I nostri sistemi degli anni Ottanta e Novanta potavano automaticamente le connessioni con pesi di connessione al di sotto di un dato livello e consentivano la creazione di nuove connessioni per costruire un modello migliore dei dati di addestramento e per rendere possibile l'apprendimento "al volo". Un requisito fondamentale, credo, è consentire al sistema di creare in modo flessibile le proprie topologie in funzione delle forme a cui è esposto nell'apprendimento. Possiamo usare la tecnica matematica della programmazione lineare per assegnare in modo ottimale le connessioni a nuovi riconoscitori di forme.

Il nostro cervello digitale poi avrà i mezzi per ospitare una sostanziale ridondanza di ciascuna forma, in particolare per quelle che si presentano spesso. Questo dà robustezza al riconoscimento di forme comuni ed è uno dei metodi chiave per ottenere il riconoscimento invariante di configurazioni diverse di una stessa forma. Avremo bisogno però di regole relative alla quantità di ridondanza ammissibile, poiché non vorremo sfruttare quantità eccessive di memoria per forme di basso livello molto comuni.

[...]

Infine, il nostro nuovo cervello ha bisogno di un fine. Un fine si esprime come una serie di obiettivi. Nel caso dei nostri cervelli biologici, i nostri obiettivi sono definiti dai centri del piacere e della paura che abbiamo ereditato dal nostro vecchio cervello. Queste spinte primitive sono state impostate inizialmente dall'evoluzione biologica per favorire la sopravvivenza della specie, ma la neocorteccia ci ha permesso di sublimarle. L'obiettivo di Watson era rispondere alle domande di Jeopardy!; un altro obiettivo facilmente formulabile sarebbe quello di superare il test di Turing. Per quest'ultimo scopo, un cervello digitale avrà bisogno di una narrazione umana della sua storia di fantasia, in modo da poter fingere di essere un essere umano biologico.

Dovrà anche rendersi notevolmente meno intelligente, perché qualsiasi sistema che esibisca le conoscenze, poniamo, di Watson verrebbe rapidamente smascherato come non biologico.

Cosa più interessante, potremmo dare al nostro nuovo cervello un traguardo più ambizioso, come dare un contributo per un mondo migliore. Un obiettivo del genere, ovviamente, fa sorgere un gran numero di domande: migliore per chi? Migliore in che modo? Per gli esseri umani biologici? Per tutti gli esseri coscienti? E in tal caso, chi o cosa è cosciente?

Man mano che i cervelli non biologici diventeranno capaci come quelli biologici di produrre cambiamenti nel mondo (e alla fine ne saranno, in effetti, molto più capaci di quelli biologici senza ausili) dovremo prendere in considerazione anche la loro educazione morale. Un buon punto di partenza potrebbe essere una vecchia idea delle nostre tradizioni religiose: la regola aurea.

| << |  <  |  >  | >> |

Pagina 151

La questione, se calcolatore e cervello umano siano equivalenti, a qualche livello, rimane aperta. Nell'introduzione ho detto che si trovano milioni di collegamenti a citazioni sulla complessità del cervello umano, e analogamente anche una ricerca in Google per citazioni di una frase come "the brain is not a computer", "il cervello non è un calcolatore" restituisce milioni di collegamenti. A parer mio, affermazioni di questo tenore sono un po' come dire "la salsa di mele non è una mela". Tecnicamente un enunciato del genere è vero, ma si può fare la salsa di mele da una mela. Forse più appropriatamente, è come dire "i calcolatori non sono elaboratori di testi". È vero che un calcolatore e un elaboratore di testi stanno a livelli concettuali diversi, ma un calcolatore può diventare un elaboratore di testi se gli si fa eseguire un software di elaborazione testi e non il contrario. Analogamente, un calcolatore può diventare un cervello se gli si fa eseguire un software per il cervello. Questo è ciò che i ricercatori, compreso chi scrive, stanno cercando di fare.

La questione, quindi, si riduce a chiedersi se potremo o meno trovare un algoritmo che trasformi un calcolatore in un ente equivalente a un cervello umano. Un calcolatore, in fin dei conti, può eseguire qualsiasi algoritmo possiamo definire, per la sua intrinseca universalità (delimitata solo dalle sue capacità). Il cervello umano, invece, esegue un insieme specifico di algoritmi. I suoi metodi sono intelligenti in quanto permettono una plasticità significativa e la ristrutturazione delle sue connessioni sulla base dell'esperienza, ma queste funzioni possono essere emulate nel software.

L'universalità del calcolo (l'idea che un calcolatore d'uso generale può realizzare qualsiasi algoritmo) e la potenza di questa idea sono emerse insieme con le prime macchine effettive. Ci sono quattro concetti fondamentali alla base dell'universalità e della fattibilità del calcolo e della sua applicabilità al nostro pensiero. Vale la pena passarli in rassegna qui, perché anche il cervello li usa. Il primo è la capacità di comunicare, ricordare e calcolare informazioni in modo affidabile. Intorno al 1940, se si usava la parola "computer" in inglese, chiunque avrebbe dato per scontato che si volesse indicare un calcolatore analogico, in cui i numeri sono rappresentati da livelli diversi di tensione, e componenti specializzati possono eseguire funzioni aritmetiche come l'addizione e la moltiplicazione. I calcolatori analogici avevano però un grave limite, perché avevano problemi notevoli di precisione. I numeri potevano essere rappresentati solo con una approssimazione di una parte su cento, e nell'elaborazione dei livelli di tensione che li rappresentavano, da parte di un numero crescente di operatori aritmetici, gli errori si cumulavano. Se si eseguivano più di una manciata di calcoli, i risultati diventavano così imprecisi da essere privi di senso.

Chiunque ricordi i giorni delle registrazioni musicali con i nastri analogici ricorderà bene questo effetto: già alla prima copia si verificava un degrado notevole, poiché la copia era un po' più rumorosa dell'originale. (Ricordate che il "rumore" rappresenta imprecisioni casuali.) Una copia della copia era ancora più rumorosa, e al decimo passaggio la copia che si otteneva era quasi esclusivamente rumore. Si dava per scontato che lo stesso problema avrebbe afflitto il mondo nascente dei calcolatori digitali, e possiamo capire questa preoccupazione, se pensiamo alla comunicazione di informazioni digitali in un canale. Non esiste il canale perfetto: tutti avranno un qualche tasso intrinseco di errori. Supponiamo di avere un canale con una probabilità di 0,9 di trasmettere correttamente ciascun bit. Se invio un messaggio lungo un bit, la probabilità che venga trasmesso accuratamente lungo quel canale sarà 0,9. E se mando due bit? Ora l'accuratezza è (0,9)^2 = 0,81. E se invio un byte, otto bit? Avrò meno del 50 per cento di probabilità (43 per cento per essere precisi) che vengano ricevuti correttamente. La probabilità di trasmettere correttamente cinque byte è di circa l'1 per cento.

Una soluzione ovvia per aggirare questo problema è rendere più accurato il canale. Supponiamo che il canale faccia un solo errore su un milione di bit. Se invio un file costituito da mezzo milione di byte (all'incirca le dimensioni di un programma o di un database modesto), la probabilità di trasmetterlo correttamente è inferiore al 2 per cento, nonostante l'altissima accuratezza intrinseca del canale. Dato che un errore di un solo bit può completamente rovinare un programma e altre forme di dati digitali, la situazione non sarebbe affatto soddisfacente. Indipendentemente dalla accuratezza del canale, dato che la probabilità di un errore in una trasmissione cresce rapidamente in funzione delle dimensioni del messaggio, questa sembrerebbe una barriera insormontabile.

I calcolatori analogici affrontavano il problema attraverso la graceful degradation, un degrado morbido (nel senso che gli utenti presentavano solo problemi in cui potevano tollerare piccoli errori); però, se gli utenti dei calcolatori analogici si limitavano a un insieme ristretto di calcoli, i calcolatori si dimostravano abbastanza utili. I calcolatori digitali, invece, hanno bisogno di comunicazioni continue, non semplicemente da un calcolatore all'altro, ma anche all'interno del calcolatore stesso. Ci sono comunicazioni dalla memoria verso l'unità centrale di elaborazione e viceversa. Dentro l'unità centrale di elaborazione, vi sono comunicazioni fra un registro e l'altro e fra ciascuno e l'unità aritmetica e viceversa, e così via. Anche dentro l'unità aritmetica si verificano comunicazioni da un bit di registro all'altro. Ci sono comunicazioni ovunque e a qualsiasi livello. Se pensiamo che i tassi di errore aumentano rapidamente con l'aumento delle comunicazioni e che un errore in un solo bit può distruggere l'integrità di un intero processo, il calcolo digitale era condannato in partenza, o almeno così sembrava.

Questa è stata l'idea comune, fino a che il matematico americano Claude Shannon (1916-2001) non ha dimostrato come si possano creare comunicazioni arbitrariamente precise utilizzando anche i canali di comunicazione meno affidabili. Quello che Shannon ha affermato nel suo saggio "A Mathematical Theory of Communication", una pietra miliare, pubblicato nel Bell System Technical Journal nei fascicoli di luglio e ottobre 1948, e in particolare nel suo teorema della codifica per i canali rumorosi, è che se si ha a disposizione un canale con qualsiasi tasso di errore (tranne che per il 50 per cento esatto per bit, il che significa che il canale trasmette solo rumore puro), si può trasmettere un messaggio con un tasso di errore piccolo a piacere. In altre parole, il tasso di errore della trasmissione può essere di un bit su n bit, dove n può essere grande a piacere. Così, pr esempio, per andare all'estremo, se si ha un canale che trasmette correttamente bit di informazione solo nel 51 per cento dei casi (cioè trasmette il bit corretto solo di poco più spesso rispetto al bit sbagliato), si possono comunque trasmettere messaggi in modo che sia errato un solo bit su un milione, o su un miliardo o su un miliardo di miliardi.

Com'è possibile? Attraverso la ridondanza. Oggi può sembrare ovvio, ma a quei tempi non lo era affatto. Per fare un esempio semplice, se trasmetto ciascun bit tre volte e all'altro capo prendo il valore a maggioranza, avrò aumentato sostanzialmente l'affidabilità del risultato. Se questo ancora non basta, si aumenta la ridondanza fino a che non si ottiene l'affidabilità di cui si ha bisogno. La semplice ripetizione delle informazioni è il modo più facile per ottenere tassi di precisione arbitrariamente elevati da canali a bassa affidabilità, ma non è il metodo più efficiente. Il saggio di Shannon, che ha fondato la disciplina della teoria dell'informazione, indicava come ottenere codici a identificazione e correzione degli errori in grado di produrre qualsiasi livello di precisione in qualsiasi canale non casuale.

I lettori meno giovani ricorderanno i modem telefonici, che trasmettevano informazioni su linee telefoniche analogiche rumorose. Quelle linee presentavano fischi e schiocchi udibili e molte altre forme di distorsione, ma erano comunque in grado di trasmettere dati digitali con tassi di accuratezza molto elevati, grazie al teorema del canale rumoroso di Shannon. Si danno lo stesso problema e la stessa soluzione per la memoria digitale. Vi siete mai chiesti come mai CD, DVD e dischi di programmi continuino a dare risultati affidabili anche dopo che il disco è stato fatto cadere per terra e si è rigato? Ancora una volta, possiamo ringraziare Shannon.

Il calcolo è costituito da tre elementi: la comunicazione (che, come ho detto, è onnipresente sia dentro ciascun calcolatore sia fra un calcolatore e l'altro), la memoria e le porte logiche (che eseguono le funzioni aritmetiche e logiche). L'accuratezza delle porte logiche può essere aumentata arbitrariamente in modo analogo utilizzando i codici a identificazione e correzione degli errori. Dobbiamo al teorema e alla teoria di Shannon se possiamo gestire dati digitali e algoritmi di dimensioni e complessità arbitrarie, senza che i processi siano disturbati o del tutto distrutti dagli errori. È importante sottolineare che anche il cervello usa lo stesso principio, anche se l'evoluzione del cervello umano chiaramente è venuta molto prima di Shannon! La maggior parte delle forme o delle idee (e anche un'idea è una forma), come abbiamo visto, sono immagazzinate nel cervello con una quantità sostanziale di ridondanza. Un motivo fondamentale per la ridondanza del cervello è l'inaffidabilità intrinseca dei circuiti neurali.

La seconda idea importante su cui si basa l'era dell'informazione è quella che ho già citato: l'universalità del calcolo. Nel 1936 Alan Turing descriveva la sua "macchina di Turing", che non era una macchina reale ma un altro esperimento ideale. Il suo calcolatore teorico era costituito da un nastro di memoria di lunghezza infinita, diviso in celle in ciascuna delle quali poteva essere scritto un 1 o uno 0. L'input viene presentato alla macchina su questo nastro, che la macchina può leggere una cella alla volta. La macchina contiene anche una tabella di regole (in buona sostanza, un programma memorizzato) costituita da stati numerati. Ogni regola specifica un'azione se la cella appena letta contiene uno 0, un'azione diversa se contiene un 1. Fra le azioni possibili vi sono la scrittura di uno 0 o di un 1 sul nastro, lo spostamento del nastro una cella a destra o a sinistra, o lo stop. Ogni stato poi specifica il numero dello stato successivo in cui la macchina deve entrare.

L'input per la macchina di Turing viene presentato sul nastro. Il programma si avvia e, quando la macchina si ferma, ha completato il suo algoritmo e l'output del procedimento rimane sul nastro. Si noti che, anche se il nastro è di lunghezza infinita in teoria, qualsiasi programma reale che non finisca in un ciclo infinito ne userà solo una parte finita, perciò se ci limitiamo a un nastro finito la macchina risolverà ancora un insieme utile di problemi.

Se la macchina di Turing sembra semplice, è perché questo era l'obiettivo del suo inventore. Turing voleva che la sua macchina fosse la più semplice possibile (ma non più semplice, per parafrasare Einstein). Turing e Alonzo Church (1903-1995), di cui era stato allievo, hanno poi formulato quella che va sotto il nome di tesi di Church-Turing, secondo la quale se un problema che può essere presentato a una macchina di Turing non può essere risolto da questa, non è risolubile da nessuna macchina che obbedisca alle leggi naturali. Anche se la macchina di Turing ha solo una manciata di comandi ed elabora un solo bit alla volta, può calcolare qualsiasi cosa qualsiasi calcolatore possa calcolare. Detto in altro modo, qualsiasi macchina "Turing-completa" (cioè con capacità equivalenti a una macchina di Turing) può calcolare qualsiasi algoritmo (qualsiasi procedura che possiamo definire).

Le interpretazioni "forti" della tesi di Church-Turing vedono una equivalenza essenziale fra quello che un essere umano può pensare o sapere e quello che è calcolabile da una macchina. L'idea di base è che il cervello umano sia analogamente soggetto alle leggi naturali, e quindi le sue capacità di elaborazione delle informazioni non possano superare quelle di una macchina (e pertanto di una macchina di Turing).

Si può correttamente attribuire a Turing il merito di aver stabilito i fondamenti teorici della computazione nel suo saggio del 1936, ma è importante notare che era stato fortemente influenzato da una conferenza tenuta dal matematico ungherese-americano John von Neumann (1903-1957) nel 1935 sul concetto di programma memorizzato, concetto che è incorporato nella macchina di Turing. A sua volta, von Neumann è stato poi influenzato dal saggio di Turing del 1936, che esponeva in modo elegante i principi della computazione, e ne ha fatto una lettura obbligatoria per i suoi colleghi alla fine degli anni Trenta e agli inizi dei Quaranta.

In quello stesso saggio Turing comunica anche un'altra scoperta inattesa: l'esistenza di problemi insolubili. Sono problemi ben definiti, con risposte univoche che si può dimostrare esistono, ma che si può anche dimostrare che non possono essere calcolate da alcuna macchina di Turing – il che significa da nessuna macchina, un netto rovesciamento di quello che era stato un dogma del diciannovesimo secolo, ovvero che i problemi che possono essere ben definiti alla fine possono essere anche risolti. Il matematico e filosofo austriaco-americano Kurt Gödel ha raggiunto una conclusione analoga nel suo "teorema di incompletezza" del 1931. Ci ritroviamo quindi in una situazione che lascia perplessi: possiamo definire un problema, dimostrare che esiste una risposta unica, ma sappiamo che la risposta non potrà mai essere trovata.

Turing ha mostrato che, in sostanza, la computazione si basa su un meccanismo molto semplice. Dato che la macchina di Turing (e quindi qualsiasi calcolatore) è in grado di definire il suo comportamento successivo in base ai risultati che ha già calcolato, è in grado di prendere decisioni e di modellizzare gerarchie di informazione di complessità arbitraria.

Nel 1939 Turing ha progettato una calcolatrice elettronica, denominata Bombe, come ausilio per decrittare i messaggi cifrati dalla macchina Enigma dell'esercito nazista. Nel 1943, un gruppo di ingegneri influenzato da Turing ha completato quello che si può ritenere a buon diritto il primo calcolatore, il Colossus, che ha consentito agli Alleati di continuare a decodificare i messaggi prodotti da versioni più perfezionate della macchina Enigma. Bombe e Colossus erano stati progettati per svolgere un unico compito ben preciso e non potevano essere riprogrammati per svolgere attività differenti, ma hanno compiuto il loro dovere in modo brillante, e ad essi viene di solito attribuito il merito di aver consentito agli Alleati di compensare il vantaggio numerico (di tre a uno) della Luftwaffe tedesca rispetto alla British Royal Air Force e di vincere la Battaglia d'Inghilterra, nonché di continuare a prevedere le tattiche dell'esercito nazista nel prosieguo del conflitto.

Su questi presupposti John von Neumann ha creato l'architettura del calcolatore moderno, che rappresenta la terza fra le nostre idee fondamentali. Definita "macchina di von Neumann", è rimasta la struttura centrale praticamente di tutti i calcolatori negli ultimi 75 anni, dalla micro-unità di controllo nelle lavatrici domestiche ai supercomputer di dimensioni maggiori. In un saggio datato 30 giugno 1945 e intitolato "First Draft of a Report on the EDVAC", von Neumann presentava le idee che da allora hanno dominato il campo dell'informatica. Il modello di von Neumann prevede una unità centrale di elaborazione, in cui vengono eseguite le operazioni aritmetiche e logiche; una unità di memoria, in cui sono immagazzinati il programma e i dati; una memoria di massa; un contatore di programma e canali di input/output. Anche se doveva essere un documento interno di progetto, quel saggio è diventato la bibbia dei progettisti di calcolatori. Mai disprezzare un memorandum interno, apparentemente di routine: potrebbe finire per rivoluzionare il mondo.

La macchina di Turing non era stata pensata come un oggetto di uso pratico. Con i suoi teoremi Turing non si era preoccupato dell'efficienza nella risoluzione di problemi, ma aveva esaminato il campo dei problemi che avrebbero potuto essere risolti in teoria mediante calcolo automatico. L'obiettivo di von Neumann, invece, era quello di arrivare alla concezione realizzabile di una macchina per il calcolo. Il suo modello sostituisce ai calcoli su un solo bit di Turing parole di più bit (di solito qualche multiplo di otto bit). Il nastro di memoria di Turing è sequenziale, perciò i programmi della sua macchina passano una enorme quantità di tempo a spostare il nastro avanti e indietro per scrivere e leggere i risultati intermedi. La memoria di von Neumann, invece, è ad accesso casuale, cosicché qualsiasi dato può essere recuperato immediatamente.

Una delle idee centrali di von Neumann è il programma memorizzato, che aveva introdotto un decennio prima: l'idea cioè di conservare il programma nello stesso tipo di memoria ad accesso casuale dei dati (e spesso nello stesso blocco di memoria). Questo consente sia la riprogrammazione del calcolatore per compiti diversi, sia la scrittura di codice che si automodifica (se si può scrivere nella memoria dei programmi), il che rende possibile una forma potente di ricorsione. Fino ad allora praticamente tutti i calcolatori, compreso il Colossus, erano stati realizzati per un compito specifico. Il programma memorizzato fa sì che un calcolatore possa essere veramente universale, realizzando così la visione di Turing dell'universalità del calcolo.

Un altro aspetto fondamentale della macchina di von Neumann è che ciascuna istruzione comprende un codice operativo che specifica l'operazione aritmetica o logica da eseguire e l'indirizzo di un operando in memoria.

Le idee di von Neumann sull'architettura dei calcolatori hanno cominciato a diffondersi con la pubblicazione del progetto dell'EDVAC, condotto con i suoi collaboratori J. Presper Eckert e John Mauchly. L'EDVAC in realtà non fu in funzione prima del 1951, quando ormai esistevano già altri calcolatori a programma memorizzato, come la Manchester Small-Scale Experimental Machine, l'EDIAC, l'EDSAC e il BINAC, tutte macchine che erano state profondamente influenzate dal saggio di von Neumann e nel cui progetto sono stati coinvolti Eckert e Mauchly. Von Neumann ha contribuito direttamente al progetto di varie fra queste macchine, in particolare una versione successiva dell'ENIAC, che prevedeva il programma memorizzato.

L'architettura di von Neumann ha avuto pochi precursori, anche se in nessun caso (tranne una eccezione sorprendente) si trattava di vere macchine di von Neumann. Nel 1944 Howard Aiken ha introdotto il Mark I, che aveva un elemento di programmabilità ma non utilizzava un programma memorizzato: leggeva le istruzioni da un nastro perforato ed eseguiva ciascun comando immediatamente; inoltre non aveva una istruzione di salto condizionato.

Nel 1941 lo scienziato tedesco Konrad Zuse (1910-1995) creò lo Z-3, un'altra macchina che leggeva il suo programma da un nastro (nel suo caso, codificato su pellicola) e non aveva alcuna istruzione di salto condizionato. Cosa interessante, Zuse aveva il sostegno dell'istituto di ricerca dell'aviazione tedesca, che utilizzava il dispositivo per studi di aeroelasticità delle ali, ma la sua richiesta di un finanziamento per poter sostituire i relè con valvole termoioniche fu respinta: per i nazisti il calcolo automatico non era "importante per lo sforzo bellico". Il che contribuisce a spiegare, secondo me, anche l'esito del conflitto.

C'è stato però un genuino precursore dell'idea di von Neumann, e risale a ben un secolo prima! La Macchina Analitica del matematico e inventore inglese Charles Babbage (1791-1871), che la descrisse per la prima volta nel 1837, incorporava le idee di von Neumann, compreso il programma memorizzato mediante schede perforate, mutuate dal telaio Jacquard. La sua memoria ad accesso casuale era costituita da 1000 parole di 50 cifre decimali ciascuna (equivalenti a circa 21 kilobyte). Ciascuna istruzione comprendeva un codice operativo e un numero di operando, proprio come i moderni linguaggi macchina. Prevedeva i salti condizionati e i cicli, perciò era una vera macchina di von Neumann. Si basava esclusivamente su ingranaggi meccanici e sembra fosse al di sopra delle competenze progettuali e organizzative di Babbage, che ne costruì solo delle parti e non riuscì mai a farla veramente funzionare. Non è chiaro se i pionieri dell'informatica del ventesimo secolo, in particolare von Neumann, fossero a conoscenza del suo lavoro.

Il calcolatore di Babbage ha favorito la nascita anche del campo della programmazione. La scrittrice inglese Ada Byron (1815-1852), contessa di Lovelace e unica figlia legittima del poeta Lord Byron, è stata la prima programmatrice del mondo. Scrisse programmi per la Macchina Analitica, che doveva mettere a punto nella propria mente (visto che il calcolatore non entrò mai in funzione), un metodo ben noto agli ingegneri del software, che oggi lo chiamano "table checking". Tradusse in inglese un articolo del matematico italiano Luigi Menabrea sulla Macchina Analitica e vi aggiunse ampie annotazioni di proprio pugno, scrivendo fra l'altro che "La Macchina Analitica intesse forme algebriche, proprio come il telaio Jacquard intesse fiori e foglie". Fu anche probabilmente la prima a ragionare sulla possibilità di un'intelligenza artificiale, ma concluse che la Macchina Analitica non aveva "alcuna pretesa di creare alcunché di originale".

La concezione di Babbage ha del miracoloso, se si tiene conto dell'epoca in cui viveva e lavorava. Alla metà del ventesimo secolo, però, le sue idee erano andate smarrite nelle nebbie del tempo (anche se poi sono state riscoperte). È stato von Neuman a concettualizzare e formulare i principi chiave del calcolatore come lo conosciamo oggi, e il mondo glielo riconosce, continuando a chiamare "macchina di von Neumann" il modello principale di computazione. Va ricordato, però, che la macchina di von Neumann comunica continuamente dati, fra le sue varie unità e all'interno di ciascuna di esse, perciò non potrebbe essere costruita senza i teoremi di Shannon e senza i metodi che Shannon ha escogitato per trasmettere e memorizzare in modo affidabile informazioni digitali.

Questo ci porta alla quarta idea importante, che va oltre la conclusione di Ada Byron, che un calcolatore non potrebbe pensare in modo creativo e trovare gli algoritmi cruciali utilizzati dal cervello e poi utilizzarli per trasformare un calcolatore in un cervello. Alan Turing ha proposto questo obiettivo nel suo saggio del 1950 "Macchine calcolatrici e intelligenza", in cui compare anche il suo famoso test per stabilire se un'intelligenza artificiale abbia raggiunto o meno un livello umano di intelligenza.

Nel 1956 von Neumann iniziò a preparare una serie di materiali per le prestigiose conferenze Silliman alla Yale University. A causa del cancro che lo aveva colpito, non riuscì a tenere le conferenze né a completare il manoscritto che ne doveva costituire la base, ma il documento per quanto incompleto rimane una anticipazione brillante e profetica di quello che considero il progetto più impegnativo e importante dell'umanità. Il testo di von Neumann è stato pubblicato postumo con il titolo The Computer and the Brain nel 1958. Mi sembra davvero appropriato che l'ultimo lavoro di uno dei matematici più brillanti del secolo scorso, uno dei pionieri dell'era informatica, sia stato un'analisi dell'intelligenza. Il suo progetto è stato la prima ricerca seria sul cervello umano dal punto di vista di un matematico e informatico. Prima di von Neumann, i campi dell'informatica e della neuroscienza erano due isole senza alcun ponte che le mettesse in comunicazione.

Von Neumann inizia la sua discussione presentando le somiglianze e le differenze fra il calcolatore e il cervello umano e, considerato a quando risale il manoscritto, è notevolmente accurato. Nota che l'output dei neuroni è digitale: un assone o si attiva o non si attiva. All'epoca non era affatto una cosa ovvia, perché l'output avrebbe potuto essere un segnale analogico. L'elaborazione nei dendriti che portano a un neurone e nel corpo della cellula neuronale, però, è analogica, e ne descrive i calcoli come una somma pesata degli input con una soglia. Questo modello del funzionamento dei neuroni ha aperto la strada al connessionismo, con la costruzione di sistemi basati su quel modello del neurone sia in hardware sia in software. (Come ho descritto nel capitolo precedente, il primo di questi sistemi connessionisti è stato creato da Frank Rosenblatt come software su un IBM 704 alla Cornell University nel 1957, subito dopo la pubblicazione del manoscritto di von Neumann.) Ora abbiamo modelli più raffinati di come i neuroni combinano i loro input, ma l'idea fondamentale di una elaborazione analogica degli input dendritici mediante la concentrazione dei neurotrasmettitori è rimasta valida.

Von Neumann ha applicato il concetto di universalità del calcolo, concludendone che, anche se architettura e mattoni da costruzione sembrano radicalmente diversi fra cervello e calcolatore, si può dire che una macchina di von Neumann può simulare l'elaborazione in un cervello. Il viceversa non vale, però, perché il cervello non è una macchina di von Neumann e non possiede un programma memorizzato in quanto tale (anche se possiamo simulare nella nostra testa una macchina di Turing molto semplice). I suoi algoritmi o i suoi metodi sono impliciti nella sua struttura. Von Neumann conclude correttamente che i neuroni possono apprendere forme a partire dai loro input, che ora abbiamo stabilito sono codificati in parte nelle intensità dei dendriti. Quello che non era noto ai tempi di von Neumann è che anche l'apprendimento avviene attraverso la creazione e distruzione di connessioni fra neuroni.

Von Neumann nota che la velocità dell'elaborazione neurale è estremamente bassa, nell'ordine del centinaio di calcoli al secondo, ma che il cervello compensa attraverso un'elaborazione massicciamente parallela; un'altra idea tutt'altro che ovvia e invece fondamentale. Von Neumann sosteneva che ciascuno dei 10^10 neuroni del cervello (una misura piuttosto precisa: le stime odierne sono fra 10^10 e 10^11) compie le sue elaborazioni contemporaneamente a tutti gli altri. In effetti, ciascuna delle connessioni (con una media di 10^3-10^4 connessioni per neurone) effettua il suo calcolo contemporaneamente alle altre.

Le stime di von Neumann e le sue descrizioni dell'elaborazione neurale sono notevoli, dato lo stato primitivo delle neuroscienze all'epoca. Un aspetto del suo lavoro con cui non concordo, però, è la sua valutazione della capacità di memoria del cervello. Von Neumann assume che il cervello ricordi ogni input per tutta la vita; presuppone una vita media di 60 anni, ovvero circa 2 x 10^9 secondi. Con circa 14 input per ciascun neurone al secondo (valore in realtà troppo basso, di almeno tre ordini di grandezza) e 10^10 neuroni, arriva a una stima di circa 10^20 bit di capacità di memoria del cervello. La realtà, come ho notato, è che ricordiamo solo una piccola parte dei nostri pensieri e delle nostre esperienze, e anche questi ricordi non sono conservati come forme di bit a basso livello (come un'immagine video), bensì come sequenze di forme di livello superiore.

Mentre descrive ciascun meccanismo nel cervello, von Neumann mostra come un calcolatore moderno possa fare le stesse cose, nonostante le evidenti differenze. I meccanismi analogici del cervello possono essere simulati digitalmente perché il calcolo digitale può emulare i valori analogici con qualsiasi grado di precisione desiderato (e la precisione delle informazioni analogiche nel cervello è molto bassa). Anche il massiccio parallelismo del cervello può essere simulato, data la velocità significativamente superiore dei calcolatori nel calcolo in serie (e questo vantaggio è andato ampiamente aumentando nel tempo). Inoltre, possiamo utilizzare l'elaborazione parallela nei calcolatori con macchine di von Neumann parallele, il che è esattamente il modo in cui funzionano i supercomputer di oggi.

| << |  <  |  >  | >> |

Pagina 165

La ridondanza utilizzata dal cervello per ottenere robustezza nell'invarianza dei risultati può essere sicuramente replicata nelle emulazioni via software. La matematica dell'ottimizzazione di questi tipi di sistemi di apprendimento gerarchici ad auto-organizzazione è ben nota. L'organizzazione del cervello è tutt'altro che ottimale. Ovviamente non ha bisogno di esserlo: deve essere sufficiente per raggiungere la soglia della capacità di creazione di strumenti che possono compensare le sue stesse limitazioni.

Un'altra restrizione della neocorteccia umana è che non esiste processo che elimini o anche semplicemente censisca le idee contraddittorie, il che spiega perché il pensiero umano sia spesso tremendamente incoerente. Abbiamo un meccanismo debole per affrontare il pensiero critico, ma questa abilità non è praticata tanto spesso quanto dovrebbe. In una neocorteccia software, possiamo incorporare un processo che mette in luce le incoerenze, in modo che possano poi essere ulteriormente esaminate.

È importante notare che il progetto di una intera regione cerebrale è più semplice del progetto di un singolo neurone. Come ho già detto, i modelli spesso si semplificano passando a un livello superiore. Pensiamo al caso dei calcolatori: per costruire il modello di un transistor bisogna conoscere nei dettagli la fisica dei semiconduttori, e le equazioni alla base di un singolo transistor reale sono complesse. Un circuito digitale che moltiplica due numeri ne richiede centinaia, ma possiamo costruire un modello di questo circuito di moltiplicazione in modo molto semplice, con una o due formule. Si può dare un modello di un intero calcolatore con miliardi di transistor attraverso la descrizione del suo insieme di istruzioni e dei suoi registri, descrizione che può occupare poche pagine di testo e formule. I programmi per un sistema operativo, i compilatori e gli assemblatori sono abbastanza complessi, ma per modellizzare un programma particolare (per esempio un programma di riconoscimento del parlato basato su modelli markoviani nascosti gerarchici) basta una descrizione con poche pagine di equazioni. Descrizione in cui non si troverà nulla sui particolari della fisica dei semiconduttori, e nemmeno dell'architettura del calcolatore.

Un'osservazione simile vale anche per il cervello. Un particolare riconoscitore di forme nella neocorteccia, che identifichi una particolare caratteristica visiva invariante (per esempio un volto) o che funga da filtro acustico passa-banda (limitando l'input a uno specifico intervallo di frequenze) o che valuti la vicinanza temporale di due eventi può essere descritto con una quantità di gran lunga minore di particolari specifici rispetto alle effettive relazioni fisiche e chimiche che controllano i neurotrasmettitori, i canali ionici e altre variabili sinaptiche e dendritiche coinvolte nei processi neurali. Anche se è necessario tener conto di tutta questa complessità prima di passare al livello concettuale successivo, in gran parte potrà essere semplificata, con la progressiva scoperta dei principi di funzionamento del cervello.

| << |  <  |  >  | >> |

Pagina 167

CAPITOLO 9
Esperimenti ideali sulla mente
                    La mente è semplicemente ciò che fa il cervello.
                                          Marvin Minsky, La società della mente,
                                                  Adelphi, Milano, 1989, p. 563.

                    Quando saranno realizzate macchine intelligenti, non dovremo
                    meravigliarci se si dimostreranno confuse e cocciute quanto
                    gli esseri umani nelle loro convinzioni su mente-materia,
                    coscienza, libero arbitrio e cose simili.
                                       Marvin Minsky, "Matter, Mind and Models",
                         in M. Minsky (a cura), Semantic Information Processing,
                                                      MIT Press, Cambridge, 1968



Chi è cosciente?
                    La vera storia della coscienza comincia con la prima menzogna.
                                                                   Joseph Brodsky

                    Il dolore è l'unica fonte della coscienza.
                                       Fjodor Dostoevskji, Memorie dal sottosuolo

                    Esiste una pianta che si nutre di materie organiche per mezzo
                    dei propri fiori; quando una mosca si posa sul calice i petali
                    si chiudono e la rinserrano finché la pianta non l'ha divorata
                    e assimilata; ma quegli stessi petali imprigionano soltanto ciò
                    che può nutrirli. Di una goccia di pioggia o di una scheggia di
                    legno non fanno alcun caso. Curioso: una cosa tanto incosciente
                    sa distinguere tanto bene il proprio utile! Se questa è
                    incoscienza, dov'è che c'è la coscienza?
                                  Samuel Butler, 1871, Erewhon, tr.it.cit., p. 174.

Abbiamo esaminato il cervello come ente in grado di raggiungere certi livelli di risultati, ma questa prospettiva esclude sostanzialmente dal quadro i nostri io. Ci sembra di vivere nei nostri cervelli. Abbiamo vite soggettive. In che modo la concezione oggettiva del cervello di cui abbiamo parlato fin qui è in rapporto con i nostri sentimenti, con il nostro senso di essere la persona che ha quelle esperienze?

Il filosofo inglese Colin McGinn (1950-) scrive che parlare di "coscienza può spingere anche il più pedante dei pensatori a blaterare cose incoerenti". Il motivo è che spesso abbiamo idee non analizzate e incoerenti su quello che significa esattamente quel termine.

Molti pensano che la coscienza sia una forma di prestazione: per esempio, la capacità di auto-riflessione, cioè la capacità di comprendere i propri pensieri e di spiegarli. La definirei la capacità di pensare alla propria attività di pensiero. Presumibilmente potremmo trovare un modo per valutare questa abilità e poi utilizzare quel test per distinguere ciò che è cosciente da ciò che non lo è.

Se tentiamo di mettere in pratica questa impostazione, però, ci troviamo rapidamente nei guai. Un bambino piccolo è cosciente? E un cane? Non sono molto bravi a descrivere i loro stessi processi di pensiero. Ci sono persone che credono che bambini piccoli e cani non siano esseri coscienti proprio perché non possono spiegarsi. E che dire del calcolatore noto con il nome di Watson? Lo si può impostare in una modalità in cui in effetti spiega come ha fatto ad arrivare a una determinata risposta. Dato che contiene un modello del suo modo di pensare, Watson è cosciente, mentre il bambino e il cane non lo sono?

Prima di continuare ad analizzare ulteriormente la questione, è importante riflettere sulla distinzione più significativa che vi si riferisce: che cosa possiamo stabilire scientificamente, e che cosa rimane veramente dominio della filosofia? C'è chi ritiene che la filosofia sia una sorta di dimora temporanea per le domande che non sono state ancora affrontate con metodo scientifico. Secondo questa prospettiva, non appena la scienza progredisce abbastanza da risolvere un particolare gruppo di domande, i filosofi possono passare ad occuparsi di altro, fino a che la scienza non risolve anche quello. Questa concezione è endemica, là dove si parla di coscienza, e specificamente per quanto riguarda la domanda "Che cosa e chi è cosciente?".

Afferma il filosofo John Searle: "Sappiamo che il cervello causa la coscienza con meccanismi biologici specifici [...] La cosa essenziale è riconoscere che la coscienza è un processo biologico come la digestione, la lattazione, la fotosintesi o la mitosi [...] Il cervello è una macchina, una macchina biologica certo, ma pur sempre una macchina. Il primo passo dunque è immaginare come il cervello possa farlo e poi costruire una macchina artificiale che abbia un meccanismo altrettanto efficace nel causare la coscienza". Molti spesso restano stupiti da citazioni come queste perché danno per scontato che Searle sia impegnato a difendere il mistero della coscienza dagli attacchi di riduzionisti come Ray Kurzweil.

Il filosofo australiano David Chalmers (1966-) ha coniato l'espressione "the hard problem of consciousness", "il problema difficile della coscienza" per descrivere la difficoltà di catturare con precisione questo concetto sostanzialmente non descrivibile. Qualche volta una breve espressione coglie così bene una intera scuola di pensiero da diventare emblematica (come "la banalità del male" di Hannah Arendt ), e la famosa formula di Chalmers è di questo genere.

Quando si parla di coscienza, è molto facile scivolare nella considerazione degli attributi osservabili e misurabili che associamo all'essere coscienti, ma in questo modo sfugge la vera essenza dell'idea. Ho appena citato il concetto di metacognizione (l'idea di pensare al proprio pensare) come uno di questi correlati della coscienza; altri fondono invece intelligenza emotiva o intelligenza morale e coscienza. Ma, ancora, la nostra capacità di esprimere un sentimento di affetto, di cogliere l'umorismo di una battuta o di essere sexy sono semplicemente tipi di prestazioni, magari stupendi e intelligenti, ma comunque capacità che si possono in ogni caso osservare e misurare (anche se si può dissentire su come valutarle). Stabilire come il cervello realizzi questi generi di attività e che cosa succede nel cervello quando le compiamo costituisce la parte "facile" del problema della coscienza secondo Chalmers. Ovviamente il problema "facile" è tutto tranne che facile, e rappresenta forse la ricerca scientifica più difficile e più importante della nostra epoca. La questione "difficile" di Chalmers, invece, è così difficile da risultare sostanzialmente ineffabile.

A sostegno di questa distinzione, Chalmers introduce un esperimento ideale che chiama in causa quelli che chiama zombie. Uno zombie è un ente che si comporta esattamente come una persona, ma semplicemente non ha esperienza soggettiva – in altre parole, uno zombie non è cosciente. Chalmers sostiene che, siccome possiamo pensare a uno zombie, gli zombie sono almeno logicamente possibili. Se vi trovaste a una festa e fra gli invitati ci fossero sia esseri umani "normali" sia zombie, come fareste a distinguere gli uni dagli altri? (Forse sembra la descrizione di una festa a cui siete effettivamente stati.)

Molti rispondono dicendo che interrogherebbero sulle loro reazioni emotive a eventi e idee gli individui di cui vorrebbero stabilire la natura. Uno zombie, pensano, tradirebbe la sua mancanza di esperienza soggettiva attraverso l'assenza di certi tipi di risposte emotive. Ma una risposta di questo genere semplicemente non tiene correttamente conto delle ipotesi di base dell'esperimento ideale. Se incontrassimo una persona non emotiva (per esempio una persona con certi deficit emotivi, come accade in talune forme di autismo) o un avatar o un robot che non ci convincono come esseri umani dotati di emozioni, quegli enti non sarebbero zombie. Ricordate: secondo l'ipotesi di Chalmers, uno zombie è completamente normale nella sua capacità di rispondere, compresa la capacità di reagire emotivamente; semplicemente non possiede esperienze soggettive. Il risultato finale è che non esiste modo per identificare uno zombie, perché per definizione non vi è alcuna indicazione evidente della sua natura di zombie nel suo comportamento. Ne dobbiamo concludere allora che si tratta di una distinzione senza differenza?

Chalmers non cerca di rispondere alla domanda difficile, ma fornisce qualche possibilità. Una è una forma di dualismo in cui la coscienza in sé non esiste nel mondo fisico ma costituisce una realtà ontologica separata. Secondo questa formulazione, quel che fa una persona dipende dai processi nel suo cervello. Dato che il cervello è causalmente chiuso, possiamo spiegare a pieno le azioni di una persona, compresi i suoi pensieri, attraverso i suoi processi. La coscienza quindi esiste sostanzialmente in un altro mondo, o almeno è una proprietà separata dal mondo fisico. Questa spiegazione non consente che la mente (cioè la proprietà cosciente associata con il cervello) possa influire causalmente sul cervello.

Un'altra possibilità presentata da Chalmers, che non è logicamente distinta dalla sua idea di dualismo, e spesso viene indicata con il nome di panprotopsichismo, sostiene che tutti i sistemi fisici sono coscienti, ma un essere umano è più cosciente, diciamo, di un interruttore della luce. Sono sicuramente d'accordo che un cervello umano abbia molto di più di cui essere cosciente che non un interruttore.

La mia idea, che è forse una sottospecie di panprotopsichismo, è che la coscienza è una proprietà emergente di un sistema fisico complesso. In questo senso è cosciente anche un cane, ma un po' meno di un essere umano. Anche una formica ha qualche livello di coscienza, ma molto meno di un cane. La colonia di formiche, invece, si può pensare abbia un livello di coscienza più elevato della singola formica; sicuramente è più intelligente di una formica isolata. Da questo punto di vista, anche un calcolatore che emulasse bene la complessità di un cervello umano avrebbe la stessa coscienza emergente di un essere umano.

Un altro modo di pensare il concetto di coscienza è come un sistema che possiede qualia. Che cosa sono i qualia? Una definizione è "esperienze coscienti"; il che, però, non ci porta molto lontano.

[...]

Un'altra definizione di qualia è la sensazione di un'esperienza. Anche questa definizione però non è meno circolare della precedente: le espressioni "provare sensazioni", "avere un'esperienza" e "coscienza" sono sinonime. La coscienza e la questione, strettamente correlata, dei qualia costituiscono una questione filosofica fondamentale, forse la questione ultima (anche se il problema dell'identità può essere addirittura più importante, come vedremo nella parte finale di questo capitolo).

E allora, per quanto riguarda la coscienza, qual è esattamente la domanda? È questa: chi o che cosa è cosciente? Nel titolo di questo libro ho scritto "mente", anziché "cervello", perché una mente è un cervello cosciente. Potremmo dire anche che una mente ha libero arbitrio e identità. Che queste siano domande filosofiche è a sua volta una affermazione non autoevidente. Sostengo che queste domande non potranno mai essere risolte completamente dalla scienza; in altre parole, che non esistono esperimenti falsificabili che possiamo immaginare che possano risolverle, senza presupposti filosofici. Se potessimo costruire un rivelatore di coscienza, Searle vorrebbe essere sicuro che escluda i neurotrasmettitori biologici. Il filosofo americano Daniel Dennett (1942-) sarebbe più flessibile per quel che riguarda il substrato, ma vorrebbe determinare se il sistema contiene o meno un modello di se stesso e delle proprie prestazioni. La sua idea è più vicina alla mia, ma fondamentalmente rimane un assunto filosofico.

Regolarmente vengono avanzate proposte, che si presentano come teorie scientifiche, che collegano la coscienza a qualche attributo fisico misurabile, quello che Searle intende come "meccanismo che causa la coscienza". Stuart Hameroff (1947-), scienziato, filosofo e anestesiologo, ha scritto che "i filamenti del citoscheletro sono le radici della coscienza", riferendosi ai sottili filamenti presenti in tutte le cellule (neuroni compresi), detti microtubuli, che determinano l'integrità strutturale della cellula e hanno un ruolo nella divisione cellulare. I suoi libri e i suoi saggi su questo argomento contengono descrizioni particolareggiate ed equazioni che spiegano la plausibilità dell'idea che i microtubuli abbiano un ruolo nell'elaborazione delle informazioni all'interno della cellula. Ma il collegamento fra microtubuli e coscienza richiede un salto di fede fondamentalmente non diverso da quello implicito in una dottrina religiosa che descrive un essere supremo che dona la coscienza (a volte chiamata "anima") a certi enti (di solito umani). A favore dell'ipotesi di Hameroff viene portata qualche evidenza debole, in particolare l'osservazione che i processi neurologici che sosterrebbero questa supposta computazione cellulare si interrompono in caso di anestesia. Ma è un fatto tutt'altro che decisivo, dato che durante un'anestesia i processi che si interrompono sono molti. Non possiamo nemmeno dire per certo che un soggetto anestetizzato non sia cosciente: tutto quello che sappiamo è che le persone non ricordano poi le loro esperienze. Anche questo peraltro non è un dato universale, perché ci sono persone che ricordano, e con precisione, la loro esperienza sotto anestesia, comprese per esempio le conversazioni dei loro chirurghi. Chiamato "consapevolezza in anestesia", questo fenomeno si stima si verifichi circa 40.000 volte all'anno negli Stati Uniti. Ma, anche lasciando da parte questo, coscienza e memoria sono concetti del tutto diversi. Come ho ampiamente discusso, se ripenso momento per momento alle mie esperienze dell'ultima giornata, ho avuto un numero enorme di impressioni sensoriali, ma ne ricordo pochissime. Questo vuol dire quindi che non ero cosciente di quello che vedevo e sentivo nell'arco della giornata? È in effetti una buona domanda, e la risposta non è affatto così chiara.

Roger Penrose (1931-), fisico e matematico inglese, ha fatto un salto di fede diverso nel proporre la fonte della coscienza, anche se in qualche modo ancora legata ai microtubuli, più specificamente alle loro supposte capacità di elaborazione quantistica. Il suo ragionamento, anche se non formulato esplicitamente, sembra sia che la coscienza è misteriosa e anche un evento quantistico lo è, perciò debbono essere in qualche modo collegati.

Penrose è partito nella sua analisi dai teoremi di Turing sui problemi insolubili e dal teorema di incompletezza di Gödel. La premessa di Turing (che abbiamo analizzato un po' più approfonditamente nel Capitolo 8) è che esistono problemi algoritmici che possono essere formulati ma che non possono essere risolti da una macchina di Turing. Data l'universalità di quest'ultima, se ne conclude che questi "problemi insolubili" non possono essere risolti da alcuna macchina. Il teorema di incompletezza di Göòdel è un risultato analogo, per quanto riguarda la possibilità di dimostrare congetture relative ai numeri. L'argomentazione di Penrose è che il cervello umano è in grado di risolvere questi problemi insolubili, perciò è capace di fare cose che una macchina deterministica come un calcolatore non è in grado di fare. La sua motivazione, almeno in parte, è elevare gli esseri umani al di sopra delle macchine; ma la sua premessa centrale (che gli esseri umani possano risolvere i problemi insolubili di Turing e di Gödel) purtroppo semplicemente non è vera.

Un famoso problema insolubile, il "problema dell'alacre castoro" si può formulare in questo modo: trovare il numero massimo di 1 che una macchina di Turing con un dato numero di stati può scrivere sul suo nastro. Quindi per determinare la funzione alacre castoro del numero n, costruiamo tutte le macchine di Turing che hanno n stati (che saranno in numero finito, se n è finito) e poi determiniamo il massimo numero di 1 che queste macchine scrivono sui loro nastri, escludendo le macchine che finiscono in un ciclo infinito. Il problema è insolubile perché, quando cerchiamo di simulare tutte queste macchine di Turing a n stati, il nostro simulatore finirà in un ciclo infinito quando tenterà di simulare una delle macchine che finiscono in un ciclo infinito. Si dà però il caso che i calcolatori siano comunque riusciti a determinare la funzione alacre castoro per certi n. Lo hanno fatto anche degli esseri umani, ma i calcolatori hanno risolto il problema per un maggior numero di n, rispetto agli esseri umani con carta e matita. I calcolatori in genere sono più bravi degli esseri umani nel risolvere i problemi insolubili di Turing e di Gödel.

Penrose ha collegato queste supposte capacità trascendenti del cervello umano all'elaborazione quantistica che ipotizzava vi avesse luogo. Secondo Penrose, questi effetti quantistici neurali erano in qualche modo intrinsecamente non ottenibili dai calcolatori, perciò il pensiero umano aveva un vantaggio intrinseco. In realtà, la comune elettronica utilizza effetti quantistici (i transistor si basano sull'effetto tunnel degli elettroni, un effetto quantistico); l'elaborazione quantistica nel cervello non è mai stata dimostrata; le prestazioni della mente umana possono essere spiegate benissimo dai metodi dell'informatica classica; e in ogni caso nulla ci impedisce di applicare l'elaborazione quantistica nei calcolatori. Nessuna di queste obiezioni è stata mai affrontata da Penrose. Quando i critici hanno fatto notare che il cervello è un posto un po' caldo e pieno di confusione per l'elaborazione quantistica, Hameroff e Penrose si sono alleati. Penrose ha trovato nei neuroni un veicolo perfetto che poteva sostenere l'elaborazione quantistica, i microtubuli che Hameroff aveva immaginato contribuissero all'elaborazione delle informazioni in un neurone. Così la tesi di Hameroff-Penrose è che i microtubuli nei neuroni compiano elaborazioni quantistiche e che a queste vada la responsabilità della coscienza.

Questa tesi è stata criticata, per esempio, dal fisico e cosmologo svedese-americano Max Tegmark (1967-), il quale ha stabilito che gli eventi quantistici nei microtubuli potrebbero sopravvivere per soli 10^-13 secondi, un intervallo troppo breve per calcolare risultati di qualche importanza o per influenzare i processi neurali. Vi sono alcuni tipi di problemi per i quali l'elaborazione quantistica avrebbe capacità superiori all'elaborazione classica, per esempio la decrittazione di codici cifrati mediante fattorizzazione di numeri molto grandi. Il pensiero umano privo di ausili però si è dimostrato scarsissimo nella loro risoluzione, e non può nemmeno reggere il confronto con i calcolatori classici in questo campo, il che fa pensare che il cervello non dimostri alcuna capacità di elaborazione quantistica. Inoltre, anche se un fenomeno come l'elaborazione quantistica nel cervello esistesse, non sarebbe necessariamente collegato alla coscienza.


Bisogna avere fede


                    Che capo d'opera, l'uomo! Com'è nobile nella ragione, infinito
                    nelle attitudini! Come perfetto e ammirevole nelle sue forme e
                    movenze! Come simile a un angelo nell'azione, e a un dio nell'
                    intendimento! Il paragone degli animali, la meraviglia del
                    mondo! Che cos'è invece per me l'uomo, questa quintessenza di
                    polvere?
                                               Amleto, nell'Amleto di Shakespeare,
                                    Atto II, scena II (tr.it. di Corrado Pavolini,
                                                 BUR Rizzoli, Milano, 1951, p. 47)

La realtà è che tutte queste teorie costituiscono dei salti di fede, e vorrei aggiungere che, per quel che riguarda la coscienza, il principio guida è "bisogna avere fede"; in altre parole, ciascuno deve fare un salto di fede in merito a che cosa e chi è cosciente, e a chi e che cosa siamo in quanto esseri coscienti. Altrimenti non potremmo alzarci la mattina. Ma dobbiamo essere onesti sulla fondamentale necessità di un salto di fede in questo campo e autoriflessivi in merito a quello che il nostro particolare salto comporta.

Persone diverse compiono salti di fede molto diversi, nonostante quel che sembra. I singoli assunti filosofici sulla natura e la fonte della coscienza stanno alla base delle diverse posizioni su questioni che vanno dai diritti degli animali all'aborto e daranno il la in futuro a conflitti ancora più accesi sui diritti delle macchine. La mia previsione oggettiva è che in futuro le macchine sembreranno coscienti e che saranno convincenti, per le persone biologiche, quando parleranno dei loro qualia. Mostreranno tutta la gamma dei sottili e ben noti indizi emotivi; ci faranno ridere e piangere; e si irriteranno con noi se diremo che non crediamo siano coscienti. (Saranno molto intelligenti, perciò non vorremo che succeda.) Arriveremo ad accettare che siano persone coscienti. Il mio salto di fede è questo: non appena le macchine riusciranno a essere convincenti, parlando dei loro qualia e delle loro esperienze coscienti, saranno effettivamente persone coscienti. Sono arrivato a questa posizione attraverso questo esperimento ideale: immaginate in futuro di incontrare un ente (un robot o un avatar) completamente convincente nelle sue reazioni emotive. Ride in modo convincente alle vostre battute di spirito e per parte sua vi fa ridere e piangere (ma non semplicemente dandovi dei pizzicotti). Vi convince della sua sincerità quando parla delle sue paure e dei suoi desideri. Sotto ogni punto di vista, sembra cosciente. Sembra in effetti, come una persona. L'accettereste come una persona cosciente?

[...]

Quindi la mia posizione è che accetterò come persone coscienti enti non biologici che siano pienamente convincenti nelle loro reazioni emotive e la mia previsione è che in genere anche il resto della società li accetterà. Notate che questa definizione va al di là degli enti che possono superare il test di Turing, che richiede una padronanza del linguaggio umano. Questi ultimi sono sufficientemente "umani" perché per me vadano inclusi, e penso che la maggior parte della società farà altrettanto, ma includo anche enti che presentano reazioni emotive analoghe a quelle umane ma non sarebbero in grado di superare il test di Turing – per esempio i bambini piccoli.

Questo risolve il problema filosofico di chi è cosciente, almeno per me e altri che vogliano accettare questo particolare salto di fede? La risposta è: non proprio. Abbiamo visto solo un caso, quello di enti che agiscono in modo analogo a quello umano. Anche se parliamo di enti futuri che non sono biologici, parliamo di enti che dimostrano in modo convincente reazioni analoghe a quelle umane, perciò questa posizione è ancora antropocentrica. Ma che cosa possiamo dire di forme di intelligenza più aliene, che non siano analoghe a quelle umane? Possiamo immaginare intelligenze complesse quanto, o addirittura enormemente più complesse dei cervelli umani, ma dotate di emozioni e motivazioni completamente diverse. Come decidiamo se sono o non sono coscienti?

| << |  <  |  >  | >> |

Pagina 183

L'oriente è l'oriente e l'occidente è l'occidente


                    Prima dei cervelli non c'erano colori o suoni nell'universo, né
                    c'erano sapori o aromi e probabilmente poco senso e nessuna
                    sensazione o emozione.
                                                                       Roger W. Sperry

                    René Descartes entra in un ristorante per pranzare. Arriva il
                    cameriere e gli chiede se vuole un antipasto.
                    "No, grazie", dice Descartes, "voglio solo ordinare il pranzo."
                    "Vuole sapere quali sono i piatti del giorno?" chiede il cameriere.
                    "No", dice Descartes, cominciando a spazientirsi.
                    "Vuole qualcosa da bere prima di pranzare?", chiede il cameriere.
                    Descartes si sente offeso, perché è astemio. "Non penso!", dice
                    indignato e, PUF!, scompare.
                                              Barzelletta raccontata da David Chalmers



Ci sono due modi di vedere le questioni che abbiamo preso in considerazione, due prospettive contrapposte, quella occidentale e quella orientale, sulla natura della coscienza e della realtà. Nella prospettiva occidentale, si parte con un mondo fisico che evolve configurazioni di informazione. Dopo qualche miliardo di anni di evoluzione, gli enti in quel mondo si sono evoluti abbastanza da diventare esseri coscienti. Nella concezione orientale, la coscienza è la realtà fondamentale; il mondo fisico giunge all'esistenza solo attraverso i pensieri degli esseri coscienti. Il mondo fisico, in altre parole, è i pensieri degli esseri coscienti resi manifesti. Queste ovviamente sono versioni molto semplificate di filosofie complesse e articolate, ma rappresentano le polarità principali nelle filosofie della coscienza e della sua relazione con il mondo fisico.

La divisione Oriente-Occidente sul problema della coscienza ha trovato espressione anche in due scuole di pensiero contrapposte nel campo della fisica subatomica. Nella meccanica quantistica, le particelle esistono sotto forma di campi di probabilità. Qualsiasi loro misurazione mediante un apparato di misura provoca quello che è chiamato un collasso della funzione d'onda, il che significa che la particella improvvisamente assume una particolare posizione. Una concezione molto diffusa è che una tale misurazione costituisca un'osservazione da parte di un osservatore cosciente, perché altrimenti quello di misura sarebbe un concetto senza senso. Quindi la particella assume una particolare posizione (e altre proprietà, come la velocità) solo quando viene osservata. Sostanzialmente, le particelle pensano che se nessuno si preoccupa di guardarle, non hanno bisogno di decidere dove si trovano. La chiamo la scuola buddhista della meccanica quantistica, perché le particelle sostanzialmente non esistono fino a che non sono osservate da una persona cosciente.

Esiste un'altra interpretazione della meccanica quantistica che evita questa terminologia antropomorfica. In questa analisi, il campo che rappresenta una particella non è un campo di probabilità, bensì solo una funzione che assume valori diversi in posizioni diverse. Il campo è, quindi, fondamentalmente la particella. Ci sono vincoli sui valori che il campo può assumere in posizioni diverse, perché tutto il campo che rappresenta una particella rappresenta solo una quantità limitata di informazione. Qui entra in gioco la parola "quanto". Il cosiddetto collasso della funzione d'onda, sostiene questa scuola di pensiero, non è quindi affatto un collasso. La funzione d'onda in realtà non scompare mai, è solo che anche un apparato di misurazione è costituito da particelle con campi, e l'interazione del campo della particella misurata e dei campi delle particelle dell'apparato di misurazione danno come risultato una lettura per cui la particella si trova in una particolare posizione. Il campo, comunque, è sempre presente. Questa è l'interpretazione occidentale della meccanica quantistica, anche se è interessante notare che la concezione più diffusa fra i fisici di tutto il mondo è quella che ho chiamato l'interpretazione orientale.

C'è stato un filosofo la cui opera ha superato questa divisione fra est e ovest. Ludwig Wittgenstein (1889-1951), pensatore austriaco-inglese, ha studiato la filosofia del linguaggio e della conoscenza e ha preso in considerazione il problema di che cosa possiamo realmente conoscere. Ha riflettuto su questo tema mentre combatteva durante la Prima guerra mondiale e ha preso appunti per quello che sarebbe stato l'unico suo libro pubblicato mentre era in vita, il Tractatus Logico-Philosophicus. L'opera aveva una struttura fuori dal comune, e solo grazie all'interessamento del suo precedente maestro, il matematico e filosofo inglese Bertrand Russell , trovò un editore nel 1921. È poi diventata la bibbia per un indirizzo filosofico, il cosiddetto positivismo logico, che ha cercato di definire i limiti della scienza. Il libro e il movimento che ha ispirato hanno avuto una forte influenza su Turing, sulla nascita della teoria della computazione e sulla linguistica. Il Tractatus Logico-Philosophicus anticipa l'idea che tutta la conoscenza sia intrinsecamente gerarchica. Il libro stesso è organizzato per enunciati annidati e numerati. Per esempio, i primi quattro enunciati del libro sono:

    1.   Il mondo è tutto ciò che accade.
    1.1  Il mondo è la totalità dei fatti, non delle cose.
    1.11 Il mondo è determinato dai fatti e dall'essere essi tutti i fatti.
    1.12 Che la totalità dei fatti determina ciò che accade, ed anche
         tutto ciò che non accade.

Un altro enunciato significativo del Tractatus, che Turing avrebbe ripreso, è questo:

    4.0031 Tutta la filosofia è "critica del linguaggio".

Sostanzialmente, il Tractatus Logico-Philosophicus e il positivismo logico sostengono che la realtà fisica esiste indipendentemente dal nostro percepirla, ma che tutto quello che possiamo conoscere di quella realtà è quello che percepiamo con i nostri sensi (che possono essere rafforzati dai nostri strumenti) e quello che possiamo inferire logicamente da quelle impressioni sensoriali. Sostanzialmente Wittgenstein cerca di descrivere i metodi e gli obiettivi della scienza. L'enunciato finale del libro porta il numero 7, "Su ciò, di cui non si può parlare, si deve tacere". Il primo Wittgenstein, di conseguenza, considera il parlare di coscienza circolare e tautologico e quindi una perdita di tempo.

Wittgenstein in seguito, però, ha rinnegato questa impostazione e ha rivolto tutta la sua attenzione filosofica a ciò che in precedenza aveva sostenuto si dovesse passare sotto silenzio. I suoi scritti secondo questa impostazione riveduta sono stati raccolti e pubblicati nel 1953, due anni dopo la sua morte, in un libro intitolato Philosophical Investigations [Ricerche filosofiche]. Vi criticava le idee espresse in precedenza nel Tractatus, giudicandole circolari e prive di significato, e arrivava a pensare che quello di cui aveva ritenuto non si dovesse parlare fosse in realtà tutto quello su cui valeva la pena riflettere. Questi scritti hanno influenzato molto gli esistenzialisti, facendo di Wittgenstein l'unica figura della filosofia moderna che sia stata un importante ispiratore di due scuole di pensiero importanti e contrapposte.

Di che cosa il secondo Wittgenstein riteneva valesse la pena pensare e parlare? Erano aspetti come la bellezza e l'amore, che riconosceva esistono imperfettamente come idee nelle menti degli esseri umani. Scrive però che tali concetti esistono in un regno perfetto e idealizzato, simili alle "forme" perfette di cui aveva scritto Platone nei suoi dialoghi, opere che hanno messo in luce punti di vista apparentemente contraddittori sulla natura della realtà.

Un pensatore le cui posizioni credo siano spesso fraintese è il filosofo e matematico francese René Descartes. Il suo famoso "cogito, ergo sum" in genere viene interpretato come glorificazione del pensiero razionale, nel senso di "Penso, cioè posso avere pensieri logici, quindi ho un valore". Descartes è considerato di conseguenza l'architetto della prospettiva razionale occidentale.

Leggendo la sua affermazione nel contesto degli altri suoi scritti, però, ne ricavo un'impressione diversa. Al centro delle riflessioni di Descartes stava quello che oggi chiamiamo "problema di mente-corpo ": come sorge una mente cosciente dalla materia fisica del cervello? In questa prospettiva, sembra cercasse di portare lo scetticismo razionale fino al punto di rottura, perciò secondo me quel che significa realmente la sua affermazione è "Io penso, cioè si verifica un'esperienza soggettiva, perciò tutto quello che sappiamo per certo è che qualcosa – chiamiamolo Io – esiste". Non poteva essere certo dell'esistenza del mondo fisico, perché tutto quello che abbiamo sono le nostre impressioni sensoriali individuali, che possono essere errate o del tutto illusorie. Sappiamo, però, che chi ha l'esperienza esiste.

Ho ricevuto una formazione religiosa in una chiesa Unitariana, dove studiavamo tutte le religioni del mondo. Dedicavamo sei mesi, diciamo, al buddhismo e frequentavamo le funzioni buddhiste, leggevamo i libri buddhisti e avevamo gruppi di discussione con i leader buddhisti. Poi passavamo a un'altra religione, per esempio il giudaismo. Il tema dominante era "molte vie alla verità", insieme con le idee di tolleranza e trascendenza. Quest'ultima idea significava che per risolvere le contraddizioni fra le diverse tradizioni non è necessario decidere che una è giusta e l'altra è sbagliata. La verità può essere scoperta solo trovando una spiegazione che supera – trascende – le differenze apparenti, in particolare per questioni fondamentali di significato e finalità.

Così risolvo la divisione fra Oriente e Occidente sulla coscienza e il mondo fisico. Dal mio punto di vista, entrambe le prospettive debbono essere vere.

Da una parte, è folle negare il mondo fisico. Anche se vivessimo in una simulazione, come ha ipotizzato il filosofo svedese Nick Bostrom, la realtà è comunque un livello concettuale che è reale per noi. E se accettiamo l'esistenza del mondo fisico e l'evoluzione che vi ha avuto luogo, possiamo vedere che da questo sono evoluti enti coscienti.

D'altra parte, anche la prospettiva orientale (che la coscienza è fondamentale e rappresenta la sola realtà davvero importante) è difficile da respingere. Basta pensare ai riguardi che abbiamo per le persone coscienti rispetto alle cose che non hanno coscienza. Per noi queste ultime non hanno un valore intrinseco, se non nella misura in cui possono influenzare l'esperienza soggettiva di persone coscienti. Anche se consideriamo la coscienza una proprietà emergente di un sistema complesso, non possiamo sostenere che si tratti solo di un altro attributo (come "digestione" e "lattazione", per citare John Searle). Rappresenta quello che è davvero importante.

Spesso si usa la parola "spirituale" per indicare le cose di significato ultimo. Molti non amano l'uso di questa terminologia che deriva dalle tradizioni spirituali o religiose, perché implica insiemi di credenze che non possono condividere. Ma se depuriamo le tradizioni religiose da tutte le complessità mistiche e semplicemente rispettiamo lo "spirituale" come qualcosa che ha un significato profondo per gli esseri umani, allora il concetto di coscienza vi si ritrova benissimo. Riflette il valore spirituale ultimo. In effetti, spesso si usa proprio la parola "spirito" per denotare la coscienza.

L'evoluzione, quindi, può essere vista come un processo spirituale in quanto crea esseri spirituali, cioè enti coscienti. L'evoluzione procede verso una complessità crescente, una conoscenza maggiore, una intelligenza maggiore, una bellezza maggiore, una maggiore creatività e la capacità di esprimere emozioni più trascendenti, come l'amore. Sono tutte descrizioni che sono state utilizzate per il concetto di Dio, anche se si dice che Dio non abbia limitazioni sotto questi aspetti.

[...]


Certamente queste osservazioni rafforzano l'idea che abbiamo della plasticità della neocorteccia, ma la loro conseguenza più interessante è che ciascuno di noi ha due cervelli, non uno, e che possiamo fare a meno o dell'uno o dell'altro. Se ne perdiamo uno, perdiamo le forme corticali che vi sono specificamente conservate, ma ciascun cervello in sé è piuttosto completo. Allora, ciascun emisfero ha la propria coscienza? In effetti, ci sono ragioni per sostenere che sia proprio così.

Pensate ai pazienti con cervello diviso, che possiedono ancora entrambi i loro emisferi cerebrali, ma nei quali è stato rescisso il canale fra le due metà. Il corpo calloso è un fascio di circa 250 milioni di assoni che collegano fra loro i due emisferi cerebrali, consentendo le comunicazioni e il coordinamento fra l'uno e l'altro. Come due persone possono comunicare strettamente fra loro e agire come un unico decisore, pur rimanendo individui separati e completi, i due emisferi cerebrali possono funzionare come un'unità pur restando indipendenti.

[...]


Come si potrebbe mettere alla prova la congettura che entrambe le menti siano coscienti? Si potrebbero andare a controllare i correlati neurologici della coscienza, che è proprio quel che ha fatto Gazzaniga. I suoi esperimenti mostrano che ciascun emisfero agisce come un cervello indipendente. La confabulazione non è limitata ai singoli emisferi; ciascuno di noi la pratica regolarmente. Ciascun emisfero è intelligente quasi quanto un umano, perciò se crediamo che un cervello umano sia cosciente, dobbiamo concluderne che ciascun emisfero è cosciente, indipendentemente dall'altro. Possiamo valutare i correlati neurologici e possiamo condurre i nostri esperimenti ideali (per esempio, considerando che se due emisferi cerebrali senza un corpo calloso funzionante costituiscono due menti coscienti separate, allora lo stesso deve valere per due emisferi con una connessione funzionante dall'uno all'altro), ma ogni tentativo di identificare più direttamente la coscienza in ciascun emisfero ci mette ancora di fronte alla mancanza di un test scientifico per la coscienza. Ma se ammettiamo che ciascun emisfero del cervello è cosciente, allora dobbiamo concedere che anche la cosiddetta attività inconscia nella neocorteccia (che costituisce la stragrande maggioranza della sua attività) ha una coscienza indipendente? O magari più di una? In effetti, Marvin Minsky parla del cervello come di una "società della mente".

| << |  <  |  >  | >> |

Pagina 211

Capitolo 10
La legge dei ritorni accelerati applicata al cervello 211



[...]


La mia tesi centrale, che chiamo la legge dei ritorni accelerati (LDRA), è che le misure fondamentali della tecnologia dell'informazione seguono traiettorie prevedibili ed esponenziali, a dispetto della saggezza convenzionale per cui "non si può predire il futuro". Ci sono ancora molte cose (quale progetto, azienda o standard tecnico prevarrà nel mercato, quando ci sarà pace nel Medio Oriente) che restano inconoscibili, ma il rapporto prezzo/prestazioni e la capacità dell'informazione si sono dimostrati comunque notevolmente prevedibili. Sorprendentemente, queste tendenze non sono perturbate da condizioni come la guerra o la pace, la prosperità o la recessione.

Una delle ragioni principali per cui l'evoluzione ha creato i cervelli è stata quella di predire il futuro. Mentre una delle nostre progenitrici camminava nella savana migliaia di anni fa, forse ha notato che un animale procedeva verso il sentiero che stava seguendo. Ha previsto che, se continuava a procedere nella stessa direzione, i loro cammini si sarebbero incrociati. In base a questo, ha deciso di cambiare direzione, e la sua capacità di prefigurazione si è dimostrata preziosa per la sopravvivenza.

Gli elementi di previsione del futuro di questo genere sono lineari, non esponenziali, una caratteristica che deriva dall'organizzazione lineare della neocorteccia. Ricordate che la neocorteccia formula costantemente previsioni: quale lettera e quale parola vedrà ora, chi ci aspettiamo di vedere quando giriamo l'angolo e così via. La neocorteccia è organizzata per successioni lineari di passi in ciascuna forma, il che significa che per noi il pensiero esponenziale non è affatto naturale. Anche il cervelletto usa previsioni lineari. Quando ci aiuta a prendere al volo una palla, formula una previsione lineare sul punto in cui si troverà la palla nel nostro campo visivo e su dove dovrà trovarsi il guanto indossato dalla nostra mano, nel campo visivo, per poterla afferrare.

Come ho evidenziato, esiste una differenza drastica fra progressioni lineari ed esponenziali (quaranta passi lineari ci portano a quaranta, ma esponenzialmente a mille miliardi), il che spiega perché le mie previsioni, derivate dalla legge dei ritorni accelerati, sembrano sorprendenti, a prima vista, a molti. Dobbiamo allenarci a pensare esponenzialmente: quando si tratta di tecnologie dell'informazione, è il modo giusto di pensare.

L'esempio più tipico della legge dei ritorni accelerati è la crescita perfettamente regolare, doppiamente esponenziale, del rapporto prezzo/prestazioni del calcolo, rimasta inalterata per 110 anni nonostante due guerre mondiali, la Grande depressione, la Guerra fredda, il crollo dell'Unione Sovietica, il riemergere della Cina, la recente crisi finanziaria e tutti gli altri eventi significativi della fine del diciannovesimo, del ventesimo e degli inizi del ventunesimo secolo. Qualcuno chiama questo fenomeno "legge di Moore", ma non è corretto. La legge di Moore (la quale afferma che il numero dei componenti che possono essere integrati in un circuito raddoppia ogni due anni, e che i componenti sono più veloci perché sono più piccoli) è solo un paradigma fra molti. È stato in effetti il quinto, e non il primo, paradigma di crescita esponenziale nel rapporto prezzo/prestazioni del calcolo.

La crescita esponenziale del calcolo è iniziata con il censimento degli USA nel 1890 (il primo che sia stato automatizzato) con il primo paradigma del calcolo elettromeccanico, decenni prima che Gordon Moore nascesse. Ne La singolarità è vicina ho presentato questo grafico fino al 2002, e qui lo aggiorno fino al 2009 (vedi il grafico a pagina 219: Crescita esponenziale del calcolo per 110 anni). La traiettoria prevedibile nella sua continuità è proseguita, nonostante la recente recessione economica.

Il calcolo ci dà l'esempio più importante della legge dei ritorni accelerati, per la quantità di dati che abbiamo per questo campo, l'onnipresenza del calcolo e il suo ruolo chiave nel cambiamento che ha rivoluzionato alla fine tutto quello che ci interessa. Ma è tutt'altro che l'unico esempio. Non appena una tecnologia diventa una tecnologia dell'informazione, è soggetta alla LDRA.

La biomedicina sta diventando, fra i settori recenti della tecnologia e dell'industria, quello più significativo in via di trasformazione in questo senso. In medicina i progressi sono dipesi storicamente da scoperte accidentali, perciò sono stati inizialmente lineari, non esponenziali. Sono stati, comunque, vantaggiosi: la speranza di vita è aumentata dai 23 anni di un millennio fa ai 37 di duecento anni fa, per arrivare vicino agli 80 di oggi. Con la decifrazione del software della vita, il genoma, la medicina e la biologia umana sono diventate una tecnologia dell'informazione. Lo stesso progetto del genoma umano si è dimostrato perfettamente esponenziale, con la quantità di dati (Tutti i grafici di questo capitolo sono stati aggiornati rispetto a quelli pubblicati ne La singolarità è vicina.)

Ora abbiamo la capacità di progettare interventi biomedici utilizzando i calcolatori e collaudandoli in simulatori biologici, e anche la scala e la precisione di questi raddoppiano ogni anno. Possiamo anche aggiornare il nostro stesso software obsoleto: l'RNA a interferenza può disattivare dei geni e nuove forme di terapia genetica possono aggiungere nuovi geni, non solo a un neonato ma anche a un individuo maturo. L'avanzamento delle tecnologie genetiche influenza anche il progetto della retroingegnerizzazione del cervello, in quanto un suo aspetto importante è la conoscenza di come i geni controllano funzioni cerebrali come la creazione di nuove connessioni in conseguenza di conoscenza corticale di nuova acquisizione. Ci sono molte altre manifestazioni di questa integrazione di biologia e tecnologia dell'informazione, mentre passiamo oltre la sequenziazione per andare verso la sintesi del genoma.

Un'altra tecnologia dell'informazione, che ha visto una crescita esponenziale senza discontinuità, è la nostra capacità di comunicare gli uni con gli altri e di trasmettere grandi quantità di conoscenza umana. Ci sono molti modi per misurare questo fenomeno. La legge di Cooper, per la quale la capacità totale in bit delle comunicazioni wireless in una certa banda dello spettro radio raddoppia ogni trenta mesi è rimasta valida da quando Guglielmo Marconi ha utilizzato il telegrafo senza fili per trasmissioni in codice Morse nel 1897 fino alle tecnologie di comunicazione 4G di oggi. Per la legge di Cooper, la quantità di informazione che può essere trasmessa su una certa banda dello spettro radio è andata raddoppiando ogni due anni e mezzo per oltre un secolo. Un altro esempio è il numero di bit al secondo trasmessi in Internet, che raddoppia ogni 15 mesi.

| << |  <  |  >  | >> |

Pagina 237

EPILOGO



                    Il quadro è piuttosto disastroso, signori... I climi del mondo stanno
                    cambiando, i mammiferi stanno prendendo il sopravvento e noi tutti
                    abbiamo un cervello più o meno delle dimensioni di una nocciolina.

                                    Dinosauri che parlano, in The Far Side di Gary Larson



L'intelligenza può essere definita la capacità di risolvere problemi con risorse limitate, dove una delle risorse cruciali è il tempo. Quindi la capacità di risolvere più rapidamente un problema come trovare cibo o evitare un predatore riflette migliori facoltà intellettive. L'intelligenza è evoluta perché era utile per la sopravvivenza: un fatto che può sembrare ovvio, ma su cui non tutti concordano. Come è praticata dalla nostra specie, ci ha consentito non solo di dominare il pianeta ma di migliorare costantemente la qualità della nostra vita. Anche quest'ultimo punto non è evidente a tutti, dato che è diffusa la percezione che la vita stia solo peggiorando. Un sondaggio Gallup diffuso il 4 maggio 2011, per esempio, mostra che solo "il 44 per cento degli americani crede che i giovani di oggi avranno una vita migliore di quella dei loro genitori".

Se guardiamo le tendenze più generali, non solo l'aspettativa di vita degli esseri umani è quadruplicata nell'ultimo millennio (e più che raddoppiata negli ultimi due secoli), ma anche il PIL (in dollari correnti costanti) è passato dalle centinaia di dollari del 1800 alle migliaia di dollari di oggi, con tendenze anche più ripide nel mondo sviluppato. Un secolo fa esistevano solo poche democrazie, mentre oggi sono la norma. Per una prospettiva storica su quanta strada abbiamo fatto, suggerisco di leggere il Leviatano (1651) di Thomas Hobbes dove descrive la "vita dell'uomo" come "solitaria, povera, sofferta, brutale e breve". Per una prospettiva moderna, il recente Abundance, scritto da Peter Diamandis, fondatore della X-Prize Foundation (e cofondatore con me della Singularity University) e da Steven Kotler, documenta i modi straordinari in cui la vita è migliorata costantemente in ogni dimensione. Il recente The Better Angels of Our nature: Why Violence Has Declined (2011) di Steven Pinker documenta puntigliosamente il costante rafforzamento delle relazioni pacifiche fra persone e popoli. Martine Rothblatt (1954-), avvocato, imprenditrice e scrittrice, documenta il costante miglioramento nei diritti civili, notando, per esempio, come in un paio di decenni i matrimoni omosessuali siano passati dal non essere riconosciuti legalmente in alcun paese del mondo ad essere accettati legalmente in un numero di giurisdizioni in rapida crescita.

Un motivo fondamentale per cui si pensa che la vita sta peggiorando è perché l'informazione sui problemi del mondo è costantemente migliorata. Se oggi si combatte una battaglia da qualche parte sul pianeta, la viviamo quasi come se fossimo lì. Nel corso della Seconda guerra mondiale, potevano morire in una battaglia anche decine di migliaia di persone e, se il pubblico riusciva a vederlo, era solo in una bobina di pellicola sgranata in un cinema settimane più tardi. Durante la Prima guerra mondiale una piccola élite poteva leggere l'andamento del conflitto sui quotidiani (senza immagini). Nel diciannovesimo secolo praticamente nessuno aveva accesso a notizie tempestive.

I passi avanti che abbiamo compiuto come specie, grazie alla nostra intelligenza, si riflettono nell'evoluzione della nostra conoscenza, che comprende la nostra tecnologia e la nostra cultura. Le nostre tecnologie diventano sempre più tecnologie dell'informazione, che continuano intrinsecamente a progredire in modo esponenziale. È attraverso queste tecnologie che siamo in grado di affrontare le grandi sfide dell'umanità, come conservare un ambiente sano, reperire le risorse per una popolazione in crescita (energia, cibo, acqua), vincere le malattie, estendere grandemente la longevità umana ed eliminare la povertà. Solo estendendo noi stessi con una tecnologia intelligente possiamo affrontare la scala di complessità necessaria per queste sfide.

Queste tecnologie non sono l'avanguardia di un'invasione intelligente che competerà con noi e alla fine ci toglierà di mezzo. Da quando abbiamo raccolto un bastone per raggiungere un ramo più alto, abbiamo utilizzato i nostri strumenti per estendere il nostro raggio d'azione, sia fisicamente sia mentalmente. Il fatto di poter prendere oggi dalla tasca un dispositivo e accedere a gran parte della conoscenza umana premendo pochi tasti ci porta molto al di là di tutto quello che la maggior parte degli osservatori poteva immaginare solo qualche decennio fa. Il "telefono cellulare" (tra virgolette perché si tratta in realtà di molto più che un telefono) nella mia tasca è milioni di volte meno costoso eppure migliaia di volte più potente del calcolatore che tutti gli studenti e i professori del MIT dovevano condividere quando ero studente in quella università. Questo corrisponde a un miglioramento di vari miliardi di volte del rapporto prezzo/prestazioni nell'arco degli ultimi quarant'anni, una escalation che vedremo ancora nei prossimi venticinque anni, fino a quando quello che un tempo stava in un edificio, e ora può stare in una tasca, potrà stare tutto dentro una cellula del sangue.

In questo modo ci fonderemo con la tecnologia intelligente che stiamo creando. Nanobot intelligenti nel flusso sanguigno manterranno in salute i nostri corpi biologici a livelli cellulari e molecolari. Andranno in modo non invasivo nel nostro cervello attraverso i capillari e interagiranno con i nostri neuroni biologici, estendendo direttamente la nostra intelligenza. Non è qualcosa di futuristico come potrebbe sembrare: esistono già dispositivi delle dimensioni di una cellula sanguigna che possono curare il diabete di tipo I negli animali o distruggere cellule cancerose nel flusso sanguigno. In base alla legge dei ritorni accelerati, queste tecnologie fra tre decenni saranno un miliardo di volte più potenti di quanto non siano oggi.

Io già considero i dispositivi che uso e la nuvola di risorse di calcolo a cui sono connessi virtualmente come mie estensioni, e mi sento incompleto se mi accade di essere separato da queste estensioni del mio cervello. Per questo lo sciopero di un giorno di Google, Wikipedia e migliaia di altri siti web contro il SOPA (Stop Online Piracy Act) del 18 gennaio 2012 è stato così efficace: mi sono sentito come se parte del mio cervello fosse in sciopero (anche se io e altri abbiamo trovato comunque modo per accedere a quelle risorse online). È stata una dimostrazione impressionante della forza politica di questi siti, perché il decreto (che sembrava destinato a una rapida ratificazione) è stato subito abbandonato. Cosa ancora più importante, ha dimostrato quanto abbiamo già esternalizzato parti della nostra attività di pensiero alla nuvola informatica. È già parte di chi siamo. Una volta che sarà normale avere intelligenza non biologica nei nostri cervelli, questa integrazione (e la nuvola a cui è connessa) continuerà a crescere esponenzialmente nelle sue capacità.

L'intelligenza che creeremo grazie alla retroingegnerizzazione del cervello avrà accesso al suo stesso codice sorgente e sarà in grado di migliorarsi rapidamente, in un ciclo di progettazione iterativo e accelerato. Anche se il cervello umano biologico è dotato di notevole plasticità, come abbiamo visto, ha un'architettura relativamente fissa, che non può essere modificata significativamente, e una capacità limitata. Non possiamo aumentare i suoi 300 milioni di riconoscitori di forme portandoli, poniamo, a 400 milioni, se non per via non biologica. Una volta raggiunto quel risultato, non ci sarà motivo per fermarsi a un particolare livello di capacità. Potremo proseguire e dotarlo di un miliardo di riconoscitori di forme, o di mille miliardi.

Dai miglioramenti quantitativi derivano passi avanti qualitativi. Il passo più importante nell'evoluzione di Homo sapiens è stato di tipo quantitativo: lo sviluppo di una fronte più ampia per fare spazio a una maggior quantità di neocorteccia. Una maggior capacità neocorticale ha consentito a questa nuova specie di creare e analizzare pensieri a livelli concettuali più elevati, e il risultato è stata l'apertura dei molti campi dell'arte e della scienza. Aggiungendo altra neocorteccia in forma non biologica, possiamo attenderci livelli qualitativi di astrazione ancora più alti.

Il matematico inglese Irvin J. Good, collega di Alan Turing, nel 1965 ha scritto che "la prima macchina ultraintelligente è l'ultima invenzione che l'uomo dovrà mai fare". Quella macchina, secondo la sua definizione, doveva essere tale da superare "le attività intellettuali di qualsiasi uomo per quanto brillante" e ne concludeva che "dato che il progetto di macchine è una di queste attività intellettuali, una macchina ultraintelligente potrà progettare macchine ancora migliori; senza alcun dubbio a quel punto ci sarà una "esplosione di intelligenza".

L'ultima invenzione che l'evoluzione biologica ha dovuto fare, la neocorteccia, porta inevitabilmente all'ultima invenzione che l'umanità dovrà compiere, le macchine davvero intelligenti; e il progetto dell'una sta ispirando l'altra. L'evoluzione biologica continua, ma l'evoluzione tecnologica procede a un ritmo milioni di volte più rapido. In base alla legge dei ritorni accelerati, alla fine del secolo saremo in grado di creare dispositivi di calcolo ai limiti del possibile secondo le leggi della fisica. Chiamiamo "computronium" materia ed energia organizzate in questo modo, e sarà enormemente più potente del cervello umano, a parità di peso. Non sarà semplice capacità di calcolo grezza, ma sarà dotata di quegli algoritmi intelligenti che costituiscono tutta la conoscenza uomo-macchina. Nel tempo convertiremo in computronium gran parte della massa e dell'energia adatte allo scopo, nel nostro angolino della galassia. Poi, per tenere il moto della legge dei ritorni accelerati, dovremo estenderci al resto della galassia e dell'universo.

Se la velocità della luce rimane effettivamente un limite inesorabile, la colonizzazione dell'universo richiederà molto tempo, dato che il sistema solare più vicino alla Terra dista quattro anni luce. Se esistono modi anche molto raffinati per aggirare questo limite, la nostra intelligenza e la nostra tecnologia saranno abbastanza potenti da sfruttarli. Questo è uno dei motivi per cui la possibilità che i muoni che recentemente hanno percorso i 730 chilometri dall'acceleratore del CERN sul confine fra Svizzera e Francia al Laboratorio del Gran Sasso in Italia si siano spostati a velocità superiore a quella della luce ha costituito una notizia di tanto significato potenziale. In quel caso sembra si sia trattato di un falso allarme, ma ci sono altre possibilità di aggirare questo limite. Non dobbiamo nemmeno superare la velocità della luce, se possiamo trovare delle scorciatoie verso altri luoghi apparentemente lontani, attraversando dimensioni spaziali al di là delle tre che conosciamo bene. Se saremo o meno in grado di superare o di aggirare altrimenti il limite della velocità della luce sarà il problema strategico fondamentale per la civiltà uomo-macchina agli inizi del ventiduesimo secolo.

I cosmologi discutono se il mondo finirà nel fuoco (un big crunch corrispondente al big bang) o nel ghiaccio (la morte delle stelle nel disperdersi sempre più lontano in una espansione eterna), ma questo non tiene conto del potere dell'intelligenza, come se il suo emergere fosse solo un divertente spettacolino rispetto alla grandiosa meccanica celeste che ora governa l'universo. Quanto ci vorrà perché diffondiamo la nostra intelligenza nella sua forma non biologica in tutto l'universo? Se possiamo trascendere la velocità della luce (e certamente è un grande "se"), per esempio utilizzando wormhole nello spazio (che non sono in contraddizione con le nostre attuali conoscenze fisiche) potrebbero bastare pochi secoli. Altrimenti, probabilmente ci vorrà molto di più. In un caso come nell'altro, risvegliare l'universo e poi deciderne in modo intelligente il fato, infondendovi la nostra intelligenza umana nella sua forma non biologica, è il nostro destino.

| << |  <  |  >  | >> |

Pagina 251

Capitolo 7 - Nota 9


Questo è lo schema di base per un algoritmo di rete neurale. Sono possibili molte variazioni, e chi progetta il sistema deve stabilire alcuni parametri e metodi critici, precisati nelle pagine che seguono.

La creazione di una soluzione via rete neurale a un problema comporta i passi seguenti:

Definire l'input.

Definire la topologia della rete neurale (cioè gli strati di neuroni e le connessioni fra i neuroni).

Addestrare la rete neurale con esempi del problema.

Attivare la rete neurale addestrata, in modo che risolva nuovi esempi del problema.

Portare l'azienda produttrice della rete neurale in Borsa.

Questi passi (tranne l'ultimo) sono specificati qui di seguito.


Il problema in input

Il problema che costituisce l'input della rete neurale è una serie di numeri.

Questo input può essere:

In un sistema di riconoscimento di forme visive, una matrice bidimensionale di numeri che rappresenta i pixel di un'immagine; o

In un sistema di riconoscimento uditivo (cioè del parlato), una matrice bidimensionale di numeri che rappresentano un suono, in cui la prima dimensione rappresenta parametri del suono (per esempio le componenti di frequenza) e la seconda rappresenta punti diversi nel tempo; o

In un sistema di riconoscimento di forme arbitrario, una matrice a n dimensioni di numeri che rappresentano la forma in input.


Definizione della topologia

Per impostare la rete neurale, l'architettura di ciascun neurone è costituita da:

Più input, dove ciascun input è "connesso" o all'output di un altro neurone o a uno dei numeri in input.

In generale, un solo output, che è connesso o all'input di un altro neurone (di solito in uno strato superiore) o è l'output finale.

Impostazione del primo strato di neuroni

Si creano No neuroni nel primo strato. Per ciascuno di questi neuroni, si "connette" ciascuno dei vari input del neurone a "punti" (cioè numeri) nell'input del problema. Queste connessioni possono essere determinate in modo casuale oppure mediante un algoritmo evolutivo (vedi oltre).

Si assegna una "intensità sinaptica" iniziale a ciascuna connessione creata. Questi pesi possono anche essere tutti uguali, essere assegnati a caso, oppure determinati in qualche altro modo (vedi oltre).

Impostazione degli ulteriori strati di neuroni

Impostare un totale di M strati di neuroni. Per ciascuno strato, impostare i neuroni che vi appartengono. Per lo strato:

Creare Ni neuroni nello strato. Per ciascuno di questi neuroni, "connettere" ciascuno dei molti input del neurone agli output dei neuroni nello strato i-1, (vedi variazioni oltre).

Assegnare una "intensità sinaptica" iniziale a ciascuna connessione creata. Questi pesi possono anche essere tutti uguali, essere assegnati a caso, oppure determinati in qualche altro modo (vedi oltre).

Gli output dei neuroni nello strato M sono gli output della rete neurale (vedi variazioni oltre).

Le prove di riconoscimento

Come funziona ciascun neurone

Una volta che un neurone è impostato, per ciascuna prova di riconoscimento compie queste operazioni:

Calcola ciascun input pesato moltiplicando l'output dell'altro neurone (o l'input iniziale) a cui è connesso il suo input per l'intensità sinaptica di quella connessione.

Somma tutti questi input pesati.

Se la somma supera la soglia di attivazione del neurone, il neurone si considera attivato e il suo output è 1; altrimenti il suo output è 0 (vedi variazioni oltre).

Per ogni prova di riconoscimento eseguire le azioni seguenti

Per ciascuno strato, dallo strato o allo strato M:

Per ciascun neurone nello strato:

Somma i suoi input pesati (ciascun input pesato = output dell'altro neurone [o output iniziale] a cui l'input del neurone è connesso, moltiplicato per l'intensità sinaptica della connessione).

Se la somma degli input pesati è maggiore della soglia di attivazione del neurone, imposta l'output del neurone = 1; altrimenti impostala = 0.


Per addestrare la rete neurale

Esegui ripetute prove di riconoscimento su problemi campione.

Dopo ogni prova, regola le intensità sinaptiche di tutte le connessioni interneuronali per migliorare le prestazioni della rete neurale per questa prova (vedi oltre la discussione su come farlo).

Continua questo addestramento fino a che il tasso di accuratezza della rete neurale non migliora più (cioè raggiunge un asintoto).

Decisioni progettuali fondamentali

Nel semplice schema precedente, il progettista dell'algoritmo di rete neurale deve determinare inizialmente:

Che cosa rappresentano i numeri in input.

Il numero degli strati di neuroni.

Il numero dei neuroni in ciascuno strato. (I vari strati non debbono necessariamente avere lo stesso numero di neuroni).

Il numero degli input a ciascun neurone in ciascuno strato. Anche il numero degli input (cioè delle connessioni interneuronali) può variare da neurone a neurone e da strato a strato.

Il "cablaggio" effettivo (cioè le connessioni). Per ciascun neurone in ciascuno strato è una lista di altri neuroni, i cui output costituiscono gli input a quel neurone. Questo è uno degli aspetti progettuali fondamentali. Ci sono molti modi per farlo:

(1) Cablare la rete neurale in modo casuale; o

(2) Utilizzare un algoritmo evolutivo (vedi oltre) per determinare un cablaggio ottimale; o

(3) Utilizzare il giudizio del progettista del sistema per determinare il cablaggio.

Le intensità sinaptiche iniziali (cioè i pesi) di ciascuna connessione. Lo si può fare in molti modi:

(1) Impostare le intensità sinaptiche allo stesso valore; o

(2) Impostare le intensità sinaptiche a valori casuali diversi; o

(3) Utilizzare un algoritmo evolutivo per determinare un insieme ottimale di valori iniziali; o

(4) Utilizzare il giudizio del progettista del sistema per determinare i valori iniziali.

La soglia di attivazione di ciascun neurone.

Determinare l'output. L'output può essere

(1) Gli output dello strato M di neuroni; o

(2) L'output di un singolo neurone di output, i cui input sono gli output dei neuroni dello strato M; o

(3) Una funzione (per esempio la somma) degli output dei neuroni nello strato M; o

(4) Un'altra funzione degli output di neuroni in più strati.

Determinare come le intensità sinaptiche di tutte le connessioni vengono regolate durante l'addestramento di questa rete neurale. Questa è una decisione progettuale fondamentale, oggetto di molte ricerche e discussioni. Ci sono molti modi per determinarlo:

(1) Per ciascuna prova di riconoscimento, aumentare o diminuire ciascuna intensità sinaptica di una quantità costante (in genere piccola) in modo che l'output della rete neurale sia più vicino alla risposta corretta. Lo si può fare per esempio sia aumentando sia diminuendo per vedere quale delle due operazioni abbia l'effetto migliore. Può richiedere molto tempo, ed esistono altri metodi per prendere decisioni locali in merito all'aumento o alla diminuzione di ciascuna intensità sinaptica.

(2) Esistono altri metodi statistici per modificare le intensità sinaptiche dopo ciascuna prova di riconoscimento in modo che le prestazioni della rete neurale in quella prova si avvicinino maggiormente alla risposta corretta.

Notate che l'addestramento della rete neurale funzionerà anche se le risposte alle prove di addestramento non sono tutte corrette. In questo modo si possono utilizzare dati di addestramento reali che possono avere un tasso intrinseco di errore. Un elemento chiave per il successo di un sistema di riconoscimento basato su rete neurale è la quantità di dati utilizzati per l'addestramento. Di solito è necessaria una quantità notevole, per ottenere risultati soddisfacenti. Come per gli studenti umani, la quantità di tempo che una rete neurale passa a studiare è un fattore chiave dei suoi risultati.


Variazioni

Sono possibili molte variazioni dei passi precedenti. Per esempio:

Esistono modi diversi per determinare la topologia. In particolare, il cablaggio interneuronale può essere impostato o in modo casuale o con un algoritmo evolutivo.

Esistono modi diversi di impostazione le intensità sinaptiche iniziali. Gli input nello strato, non debbono necessariamente arrivare dagli output dei neuroni nello strato i-1; in alternativa, gli input ai neuroni di uno strato possono provenire da qualsiasi strato inferiore o da qualsiasi strato.

Esistono modi diversi per determinare l'output finale. Il metodo descritto in precedenza dà un risultato del tipo "tutto o nulla" (1 o 0) per l'attivazione, una non linearità. Si possono usare però anche altre funzioni non lineari. Di solito si usa una funzione che passa da 0 a 1 in modo rapido ma più graduale. Gli output inoltre possono essere numeri diversi da 0 e 1.

I diversi metodi per regolare le intensità sinaptiche durante l'addestramento costituiscono alcune delle decisioni progettuali fondamentali.


Lo schema citato sopra descrive una rete neurale "sincrona", in cui ogni prova di riconoscimento procede calcolando gli output di ciascuno strato, a partire dallo strato o allo strato M. In un sistema veramente parallelo, in cui ciascun neurone opera indipendentemente dagli altri, i neuroni possono funzionare in modo "asincrono" (cioè indipendentemente). In una impostazione asincrona, ciascun neurone analizza costantemente i suoi input e si attiva ogni volta che la somma dei suoi input pesati supera la soglia (o quello che specifica la sua funzione di output).

| << |  <  |