Copertina
Autore Ray Kurzweil
Titolo La singolarità è vicina
EdizioneApogeo, Milano, 2008 , pag. 590, cop.fle., dim. 13,5x21x3,1 cm , Isbn 978-88-503-2504-7
OriginaleThe Singularity is Near
EdizioneViking, New York, 2005
TraduttoreVirinio B. Sala
LettorePiergiorgio Siena, 2008
Classe scienze cognitive , scienze naturali , fisica , scienze tecniche , epistemologia , informatica: fondamenti , evoluzione
PrimaPagina


al sito dell'editore


per l'acquisto su IBS.IT

per l'acquisto su BOL.IT

per l'acquisto su AMAZON.IT

 

| << |  <  |  >  | >> |

Indice


Prologo                                                       1


Capitolo 1
Le sei epoche                                                 7

Vista lineare intuitiva e vista esponenziale storica         10
Le sei epoche                                                14
Epoca Prima: fisica e chimica                                15
Epoca Seconda: biologia e DNA                                15
Epoca Terza: cervelli                                        16
Epoca Quarta: tecnologia                                     17
Epoca Quinta: fusione di tecnologia e intelligenza umana     19
Epoca Sesta: l'Universo si sveglia                           20
La Singolarità è vicina                                      21

Capitolo 2
Una teoria dell'evoluzione tecnologica                       35

La legge dei ritorni accelerati                              35
La natura dell'ordine                                        36
Il ciclo di vita di un paradigma                             43
Progetti frattali                                            46
Evoluzione lungimirante                                      47
La curva a S di una tecnologia espressa nel suo
    ciclo di vita                                            50
Il ciclo di vita di una tecnologia                           51
La legge di Moore - e oltre                                  55
La legge di Moore: una profezia che si autoavvera?           62
Il quinto paradigma                                          63
Dimensioni frattali e cervello                               63
Sequenziazione del DNA, memoria, comunicazioni,
    Internet e miniaturizzazione                             68
Informazione, ordine ed evoluzione;
    gli automi cellulari di Wolfram e Fredkin                77
La singolarità come imperativo economico                     88
Ottanta milioni di miliardi di dollari - affrettatevi,
    l'offerta è per un periodo limitato di tempo             88
La deflazione... è una brutta cosa?                          93

Capitolo 3
Raggiungere la capacità computazionale del cervello umano   103

Il sesto paradigma della tecnologia dell'informazione:
    computazione molecolare 3D e le tecnologie
    emergenti della computazione                            103
Il ponte verso il calcolo molecolare 3D                     104
Calcolare con le molecole                                   107
Autoassemblaggio                                            107
Emulazione della biologia                                   108
Computazione con il DNA                                     109
Elaborazione con lo spin                                    110
Calcolo con la luce                                         112
Elaborazione quantistica                                    112
La capacità computazionale del cervello umano               114
Accelerazione della disponibilità di informatica
    personale a livello umano                               117
Capacità della memoria umana                                118
I limiti del calcolo                                        120
Elaborazione reversibile                                    122
Quanto è intelligente una roccia?                           123
I limiti della nanoinformatica                              125
Una data per la Singolarità                                 127
Memoria ed efficienza computazionale: una roccia
    contro un cervello umano                                128
Ancora oltre: pico- e femtotecnologia e curvatura
    della velocità della luce                               130
Indietro nel tempo                                          132

Capitolo 4
Il software dell'intelligenza umana                         135

Come retroingegnerizzare il cervello umano                  135
Retroingegnerizzazione del cervello: una rassegna           136
Nuovi strumenti di imaging e di modellizzazione
    del cervello                                            136
Il software del cervello                                    137
Modelli analitici e modelli neuromorfici del cervello       138
Quant'è complesso il cervello?                              139
Modelli del cervello                                        140
Uno strato alla volta                                       140
Il cervello umano è diverso da un computer?                 141
Il tentativo di capire il nostro stesso pensiero:
    una ricerca in accelerazione                            146
Uno sguardo dentro il cervello                              149
Miglioramento della risoluzione                             153
Scansione mediante nanobot                                  155
La costruzione di modelli del cervello                      159
Modelli subneurali: sinapsi e bottoni                       161
Modelli dei neuroni                                         165
Plasticità del cervello                                     165
Modelli di regioni del cervello                             170
Un modello neuromorfico: il cervelletto                     171
Un altro esempio: il modello di Watts delle regioni uditive 175
Il sistema visivo                                           177
Altri lavori in corso: un ippocampo artificiale
    e una regione olivocerebellare artificiale              181
Funzioni di livello superiore: imitazione,
    previsione, emozione                                    182
Interfacciamento di cervello e macchine                     187
Il ritmo in accelerazione della retroingegnerizzazione
    del cervello                                            188
La scalabilità dell'intelligenza umana                      190
Il caricamento del cervello umano                           191

Capitolo cinque
GNR                                                         197

Tre rivoluzioni sovrapposte                                 197
Genetica: l'intersezione di informazione e biologia         198
Il calcolatore della vita                                   199
Baby boomers "firmati"                                      202
Possiamo davvero vivere per sempre?                         204
RNAi (RNA a interferenza)                                   206
Terapie cellulari                                           206
Chip genetici                                               207
Terapia genetica somatica (terapia genetica per cellule
    non riproduttive)                                       207
Inversione di patologie degenerative                        209
Contro i disturbi cardiovascolari                           209
Per superare il cancro                                      210
Far regredire l'invecchiamento                              211
Mutazioni del DNA                                           212
Cellule tossiche                                            212
Mutazioni mitocondriali                                     212
Aggregati intracellulari                                    213
Aggregati extracellulari                                    213
Perdita di cellule e atrofia                                213
Clonazione umana: la meno interessante
    fra le applicazioni della clonazione                    214
Perché la clonazione è importante?                          215
Conservazione di specie a rischio di estinzione
    e "resurrezione" di specie estinte                      215
Clonazione terapeutica                                      215
Ingegneria delle cellule somatiche umane                    216
Eliminazione della fame nel mondo                           217
Ancora sulla clonazione umana                               218
Nanotecnologia: l'intersezione di
    informazione e mondo fisico                             219
L'assemblatore biologico                                    225
Aggiornamento del nucleo cellulare con un
    nanocomputer e un nanobot                               226
Dita grasse e appiccicose                                   229
Il dibattito si riscalda                                    232
Gli "early adopters"                                        235
Energia per la Singolarità                                  236
Applicazioni della nanotecnologia all'ambiente              244
Nanobot nella circolazione sanguigna                        247
Robotica: IA forte                                          253
IA in fuga                                                  256
L'inverno dell'IA                                           257
La cassetta degli attrezzi dell'IA                          260
Sistemi esperti                                             261
Reti bayesiane                                              262
Modelli markoviani                                          263
Reti neurali                                                263
Algoritmi genetici (GA)                                     265
Ricerca ricorsiva                                           267
Deep Fritz pareggia: gli esseri umani diventano
    più intelligenti, oppure sono i computer che
    diventano più stupidi?                                  268
Combinazione di metodi                                      273
Un campione di applicazioni dell'IA ristretta               274
Esercito e spionaggio                                       274
Esplorazione spaziale                                       275
Medicina                                                    276
Scienza e matematica                                        278
Affari, finanza, produzione                                 278
Manifattura e robotica                                      280
Parlato e linguaggio                                        281
Tempo libero e sport                                        283
IA forte                                                    284

Capitolo 6
L'impatto...                                                295

Una serie di conseguenze                                    295
... sul corpo umano                                         296
Un nuovo modo di mangiare                                   297
Riprogettazione del sistema digestivo                       299
Sangue programmabile                                        301
Avere un cuore, o no                                        302
E allora che cosa ci resta?                                 303
Riprogettazione del cervello umano                          304
Stiamo diventando cyborg                                    305
Corpo umano versione 3.0                                    306
... sul cervello umano                                      308
Lo scenario del 2010                                        308
Lo scenario del 2030                                        310
Diventare qualcun altro                                     311
Trasmettitori di esperienza                                 312
Espandi la tua mente                                        312
... sulla longevità umana                                   317
Il passaggio all'esperienza non biologica                   319
La longevità dell'informazione                              321
... sulla guerra: il paradigma "remoto, robotico,
    robusto, di dimensioni ridotte, in realtà virtuale"     327
Polvere intelligente                                        331
Nanoarmi                                                    331
Armi intelligenti                                           332
VR                                                          332
... sull'apprendimento                                      333
... sul lavoro                                              335
Proprietà intellettuale                                     336
Decentramento                                               337
... sul gioco                                               338
... sul destino intelligente del cosmo:
    perché probabilmente siamo soli nell'universo           339
L'equazione di Drake                                        342
I limiti della computazione: una rivisitazione              346
Più grande o più piccolo                                    348
Espansione oltre il sistema solare                          349
Ancora sulla velocità della luce                            350
Wormhole                                                    352
Cambiare la velocità della luce                             354
Ancora uno sguardo al paradosso di Fermi                    354
Ancora sul Principio antropico                              356
Il multiverso                                               357
Universi in evoluzione                                      358
L'intelligenza come destino dell'universo                   358
La definitiva funzione di utilità                           360
Radiazione di Hawking                                       360
Perché l'intelligenza è più potente della fisica            361
Un computer alla scala dell'universo                        362
L'universo olografico                                       363

Capitolo 7
Ich bin ein Singularitarian                                 367

Ancora umano?                                               372
La vexata quaestio della coscienza                          374
Chi sono? Che cosa sono?                                    380
La Singolarità come trascendenza                            386

Capitolo 8
GNR: l'intreccio profondo di promessa e pericolo            391

Benefici intrecciati ...                                    395
... e i pericoli                                            397
Una panoplia di rischi esistenziali                         401
Il principio di precauzione                                 404
Quanto più piccola l'interazione, tanto più grande
    il potenziale esplosivo                                 404
La nostra simulazione viene disattivata                     405
Un impatto distruttivo                                      406
GNR: il vero nocciolo della questione                       406
L'inevitabilità di un futuro trasformato                    407
Abbandono totalitario                                       408
Preparare le difese                                         408
IA forte                                                    410
Ritorno al passato?                                         410
L'idea dell'abbandono                                       411
Ampio abbandono                                             411
Abbandono a grana fine                                      412
Combattere gli abusi                                        413
La minaccia del fondamentalismo                             415
Umanesimo fondamentalista                                   416
Sviluppo di tecnologie difensive e impatto
    della regolamentazione                                  417
Protezione dall'IA forte "non amichevole"                   421
Decentralizzazione                                          421
Energia distribuita                                         422
Libertà civili in un'era di guerra asimmetrica              422
Un programma di difesa dalla GNR                            423

Capitolo 9
Risposte ai critici                                         429

Tutta una serie di critiche                                 429
La critica dell'incredulità                                 434
La critica malthusiana                                      435
Le tendenze esponenziali non durano per sempre              435
Un limite praticamente illimitato                           436
La critica del software                                     437
Stabilità del software                                      438
Capacità di risposta del software                           438
Rapporto prezzo-prestazioni del software                    439
Produttività dello sviluppo di software                     439
Complessità del software                                    439
L'accelerazione degli algoritmi                             440
La fonte ultima degli algoritmi intelligenti                442
La critica dell'elaborazione analogica                      444
La critica della complessità dell'elaborazione neurale      445
Complessità cerebrale                                       446
Il dualismo intrinseco di un computer                       447
Livelli e anelli                                            448
La critica dei microtubuli e dell'elaborazione quantistica  453
La critica della tesi di Church-Turing                      455
La critica della frequenza dei guasti                       458
La critica del "blocco"                                     459
La critica ontologica: un computer può essere cosciente?    461
La camera cinese di Kurzweil                                468
La critica della divisione fra ricchi e poveri              472
La critica della probabilità di regolamentazione
    governativa                                             473
L'insostenibile lentezza delle istituzioni sociali          476
La critica del teismo                                       477
La critica dell'olismo                                      482

Epilogo                                                     489

Quanto singolare?                                           489
Centralità dell'essere umano                                491
Risorse e contatti                                          492
Singularity.com                                             492
KuzweilAI.net                                               492
Fantastic-Voyage.net e RayandTerry.com                      492

Appendice

La legge dei ritorni accelerati                             493
Albero di analisi                                           496

Note                                                        499


 

 

| << |  <  |  >  | >> |

Pagina 7

CAPITOLO 1


Le sei epoche



                            Tutti prendono i limiti della loro visione
                            per i limiti del mondo.
                                                   Arthur Schopenhauer



Non so esattamente quando mi sono reso conto per la prima volta della Singolarità. Direi che è stato una sorta di risveglio progressivo. Nel mezzo secolo circa in cui sono stato immerso nelle tecnologie dell'informatica e dei settori collegati, ho cercato di capire il significato e il fine di quel continuo ampliamento di cui sono stato testimone a molti livelli. Gradualmente sono diventato consapevole di un evento di profonda trasformazione che ci aspetta nella prima metà del Ventunesimo secolo. Come un buco nero nello spazio altera drasticamente le configurazioni di materia ed energia che accelerano verso il suo orizzonte degli eventi, questa Singolarità che incombe nel nostro futuro sta trasformando sempre più ogni istituzione e ogni aspetto della vita umana, dalla sessualità alla spiritualità.

Che cos'è, dunque, la Singolarità? un periodo futuro in cui il ritmo del cambiamento tecnologico sarà così rapido e il suo impatto così profondo, che la vita umana ne sarà trasformata in modo irreversibile. Né utopica né distopica, quest'epoca trasformerà i concetti su cui ci basiamo per dare un significato alle nostre vite, dai nostri modelli di business al ciclo della vita umana, inclusa la stessa morte. Una comprensione della Singolarità modificherà la nostra prospettiva sul significato del nostro passato e le ramificazione per il nostro futuro. Se la si intende a pieno, la visione che ciascuno ha della vita in generale, e della propria in particolare, non può che cambiare. Chi capisce la Singolarità e ha riflettuto sulle sue conseguenze per la propria vita è un "singolaritariano".

Posso capire perché molti non condividano facilmente le ovvie conseguenze di quella che ho chiamato la legge dei ritorni accelerati (l'inevitabile accelerazione del ritmo dell'evoluzione, con l'evoluzione tecnologica come continuazione di quella biologica). In fin dei conti, mi ci sono voluti quarant'anni per riuscire a vedere quello che mi stava proprio davanti agli occhi, e non posso dire ancora di sentirmi del tutto a mio agio con tutte le sue conseguenze.

L'idea chiave alla base della Singolarità incombente è che il ritmo di trasformazione della tecnologia creata dagli uomini sta accelerando e che la sua potenza cresce a velocità esponenziale. La crescita esponenziale inganna. All'inizio è quasi impercettibile, poi esplode con furia inattesa - inattesa, se non ci si da cura di seguirne la traiettoria. (Si veda il grafico 1.1 a p. 11 che mette a confronto crescita esponenziale e lineare.)

Prendete questa storia: il proprietario di un lago vuole stare a casa per prendersi cura dei pesci del lago e fare in modo che il lago stesso non si copra di ninfee, che si dice raddoppino di numero ogni pochi giorni. Mese dopo mese, aspetta con pazienza, ma si vedono solo piccole chiazze di ninfee, e non sembra che si espandano in modo apprezzabile. Le ninfee coprono meno dell'1 per cento del lago, e il proprietario immagina che non ci sia pericolo a prendersi una vacanza, e così se ne va con la famiglia.

Quando ritorna, poche settimane dopo, rimane sconvolto al vedere che il lago è coperto di ninfee e che i suoi pesci sono morti. Poiché raddoppiavano di numero ogni pochi giorni, sono stati sufficienti gli ultimi sette raddoppi per estendere la copertura delle ninfee su tutto il lago. (Sette raddoppiamenti hanno esteso la loro copertura di 128 volte.) Questa è la natura della crescita esponenziale.

Gary Kasparov nel 1992 si faceva beffe dello stato patetico dei programmi per giocare a scacchi; ma il costante raddoppio della potenza di calcolo ogni anno ha fatto sì che passassero solo cinque anni prima che un computer riuscisse a batterlo. L'elenco dei modi in cui oggi i computer possono superare le capacità umane cresce rapidamente. Inoltre, le applicazioni dell'intelligenza automatica, un tempo ristrette, si stanno estendendo gradualmente da un tipo di attività all'altra. Per esempio, i computer interpretano elettrocardiogrammi e immagini mediche, fanno volare e atterrare aerei, controllano le decisioni tattiche di armi automatiche, prendono decisioni in materia di credito e finanza e hanno la responsabilità di molte altre attività che una volta richiedevano l'intelligenza umana. Le prestazioni di questi sistemi si basano sempre più sull'integrazione di vari tipi di intelligenza artificiale (IA). Finché ci sarà qualche fallimento dell'IA in qualcuna di queste aree, gli scettici indicheranno quel campo come una roccaforte inespugnabile della permanente superiorità umana rispetto alle capacità delle nostre stesse creazioni.

Questo libro sosterrà, invece, che nell'arco di qualche decennio le tecnologie basate sull'informazione racchiuderanno tutta la conoscenza e tutte le abilità umane, e alla fine includeranno le capacità di riconoscimento di forme, le abilità nella soluzione di problemi e l'intelligenza emotiva e morale dello stesso cervello umano.

| << |  <  |  >  | >> |

Pagina 103

CAPITOLO 3


Raggiungere la capacità computazionale
del cervello umano



Il sesto paradigma della tecnologia dell'informazione: computazione molecolare 3D e le tecnologie emergenti della computazione

Nel numero del 19 aprile 1965 di Electronics, Gordon Moore scriveva: "Il futuro dell'elettronica integrata è il futuro dell'elettronica stessa. I vantaggi dell'integrazione produrranno una proliferazione dell'elettronica, portando questa scienza in molte nuove aree". Con queste parole tutt'altro che enfatiche, Moore introduceva una rivoluzione che ancora non ha perso la sua spinta. Per dare ai suoi lettori qualche idea della profondità che la nuova scienza avrebbe potuto raggiungere, Moore avanzava la previsione che "nel 1975, ragioni economiche potranno determinare il compattamento anche di 65.000 componenti su un singolo chip di silicio". Figuriamoci.

L'articolo di Moore descriveva il raddoppio annuale del numero dei transistor (usati per gli elementi computazionali, o porte) integrati in un circuito, la sua "Legge di Moore" del 1965 fu criticata a quel tempo perché la sua curva logaritmica si basava su cinque soli punti di dati (dal 1959 al 1965) e proiettare quella tendenza nascente fino al 1975 sembrava del tutto prematuro. La stima iniziale di Moore non era corretta, e la corresse verso il basso un decennio più tardi; ma l'idea di fondo - la crescita esponenziale del rapporto prezzo-prestazioni dell'elettronica in base alla riduzione delle dimensioni dei transistor su un circuito integrato - era valida e profetica.

Oggi parliamo di miliardi di componenti, non più di migliaia. Nei chip più avanzati del 2004, le porte logiche avevano già dimensioni di soli 50 nanometri, cioè già nel regno della nanotecnologia (che tratta con oggetti di dimensioni inferiori ai cento nanometri). L'abbandono della Legge di Moore è stato previsto regolarmente, ma la fine di questo notevole paradigma continua a essere rinviata nel tempo. Paolo Gargini, Fellow della Intel e direttore della strategia tecnologica Intel, presidente dell'influente International Technology Roadmap for Semiconductors (ITRS), recentemente ha sostenuto che "per almeno i prossimi 15-20 anni, possiamo continuare a rispettare la Legge di Moore. In effetti, ... la nanotecnologia ci offre molte nuove manopole che possiamo girare per continuare a migliorare il numero di componenti su un circuito".

L'accelerazione della computazione ha trasformato tutto, dalle relazioni sociali ed economiche alle istituzioni politiche, come dimostrerò in questo libro. Ma Moore nei suoi articoli non ha evidenziato che la strategia della riduzione delle dimensioni non era il primo paradigma di crescita esponenziale nel campo dell'informazione e della comunicazione. Era il quinto e già possiamo vedere il profilo del prossimo: la computazione a livello molecolare e in tre dimensioni. Anche se ci resta più di un decennio del quinto paradigma, ci sono stati già progressi importanti in tutte le tecnologie abilitanti necessarie per il sesto paradigma; nel prossimo paragrafo, vedremo un'analisi della quantità di calcolo e di memoria necessaria per ottenere livelli umani di intelligenza e del perché si può aver fiducia che questi livelli verranno raggiunti in elaboratori a basso costo nell'arco di due decenni. Anche questi potentissimi elaboratori saranno lontani dall'ottimo, e nell'ultimo paragrafo di questo capitolo passeremo in rassegna nuovamente i limiti del calcolo secondo le leggi della fisica come le conosciamo. Questo ci porterà ai computer della fine del Ventunesimo secolo.


Il ponte verso il calcolo molecolare 3D.

Sono già stati fatti dei passi intermedi: fra le nuove tecnologie che porteranno al sesto paradigma del calcolo molecolare tridimensionale vi sono nanotubi e circuiti a nanotubi, calcolo molecolare, autoassembaggio in circuiti a nanotubi,sistemi biologici che emulano l'assemblaggio circuitale, il calcolo con il DNA, la spintronica (calcolo con lo spin degli elettroni), il calcolo con la luce e l'informatica quantistica. Molte di queste tecnologie fra loro indipendenti possono essere integrate in sistemi di elaborazione che alla fine si avvicineranno alla capacità teorica massima di materia ed energia per quanto riguarda l'esecuzione di calcoli e supereranno di gran lunga le capacità computazionali di un cervello umano.

[...]


Computazione con il DNA.

Il DNA è il nanocomputer della natura, e la sua capacità di conservare informazioni ed eseguire manipolazioni logiche a livello molecolare è stata già sfruttato in "elaboratori a DNA" specializzati. Un computer a DNA è sostanzialmente una provetta piena di acqua contenente migliaia di miliardi di molecole di DNA, dove ogni molecola si comporta come un computer.

L'obiettivo della computazione è risolvere un problema, con la soluzione espressa come successione di simboli (che potrebbero rappresentare una dimostrazione matematica o semplicemente le cifre di un numero). Ecco come funziona un computer a DNA. Si crea un piccolo filamento di DNA, utilizzando un codice univoco per ciascun simbolo. Ciascun filamento poi viene replicato migliaia di miliardi di volte con un procedimento denominato "reazione a catena di polimerasi" (PCR, polymerase chain reaction). Tutto questo DNA poi viene inserito in una provetta. Data la tendenza dei filamenti di DNA a collegarsi fra loro, si formano lunghi filamenti e le sequenze di filamenti rappresentano i diversi simboli, ciascuno dei quali è una possibile soluzione del problema. Poiché ci saranno molte migliala di miliardi di questi filamenti, ci saranno molti filamenti per ciascuna possibile risposta (cioè per ciascuna possibile successione di simboli).

Il passo successivo è controllare tutti i filamenti simultaneamente, mediante enzimi appositamente progettati, che distruggono i filamenti che non soddisfano determinati criteri. Poi gli enzimi vengono applicati alla provetta in sequenza e attraverso una precisa serie di enzimi il procedimento alla fine cancellerà tutti i filamenti errati, lasciando solo quelli con la risposta corretta.

La chiave della potenza del DNA computing sta nel fatto che consente di controllare simultaneamente ciascuno delle migliaia di milioni di filamenti. Nel 2003 un gruppo di scienziati israeliani guidati da Ehud Shapiro al Weizmann Institute of Science ha combinato il DNA con ATP (adenosintrifosfato), il combustibile naturale di sistemi biologici come il corpo umano. Con questo metodo, ciascuna delle molecole di DNA è stata in grado di svolgere calcoli e di rifornirsi di energia. Gli scienziati del Weizmann hanno dimostrato una configurazione costituita da due cucchiai di questo sistema di supercalcolo liquido, che conteneva trenta milioni di miliardi di computer molecolari ed eseguiva un totale di 660 bilioni di calcoli al secondo (6,6 x 10^14). Il consumo energetico di questi calcolatori è estremamente basso: solo cinquanta milionesimi di watt per tutti i trenta milioni di miliardi di computer.

[....]


Calcolo con la luce.

Un altro approccio al calcolo SIMD (Single instruction multiple data) consiste nell'uso di più fasci di luce laser, con le informazioni codificate in ciascun fascio di fotoni. Poi si possono usare componenti ottici per eseguire funzioni logiche e aritmetiche sui flussi di informazioni codificate. Per esempio, un sistema sviluppato dalla Lenslet, una piccola azienda israeliana, usa 256 laser e può eseguire ottomila miliardi di calcoli al secondo, eseguendo lo stesso calcolo su ciascuno dei 256 flussi di dati. Il sistema può essere usato per applicazioni come la compressione di dati su 256 canali video.

Le tecnologie SIMD come i computer a DNA e i computer ottici avranno ruoli specializzati importanti nel futuro dell'informatica. Per replicare certi aspetti del funzionamento del cervello umano, come l'elaborazione di dati sensoriali, si possono usare architetture SIMD. Per altre regioni del cervello, come quelle responsabili dell'apprendimento e del ragionamento, saranno necessarie invece architetture MIMO (multiple instruction multiple data). Per l'elaborazione MIMO ad alte prestazioni, dovremo applicare i paradigmi del calcolo molecolare tridimensionale descritti in precedenza.


Elaborazione quantistica.

L'elaborazione quantistica è una forma ancor più radicale di elaborazione parallela SIMD, ma si trova in una fase di sviluppo molto più arretrata rispetto alle altre tecnologie di cui abbiamo parlato. Un elaboratore quantistico contiene una serie di qubit, che sostanzialmente sono zero e uno allo stesso tempo. Il qubit si basa sulla fondamentale ambiguità intrinseca alla meccanica quantistica. In un computer quantistico, i qubit sono rappresentati da una proprietà quantistica delle particelle, per esempio lo stato di spin di singoli elettroni. Quando i qubit sono in uno stato entangled, ciascuno è simultaneamente in entrambi gli stati. In un processo che si definisce "decoerenza quantistica", l'ambiguità di ciascun qubit si risolve, lasciando una successione univoca di uni e zeri. Se il computer quantistico è impostato nel modo giusto, questa successione disambiguata rappresenterà la soluzione a un problema. In sostanza, solo la successione corretta sopravvive al processo di decoerenza.

[...]


La capacità computazionale del cervello umano

Può sembrare avventato aspettarsi delle macchine completamente intelligenti nell'arco di pochi decenni, quando i computer hanno sì e no raggiunto la capacità mentale di un insetto in mezzo secolo di sviluppo. In effetti questo è il motivo per cui molti che conducono da tempo ricerca nell'intelligenza artificiale irridono all'idea e danno come più credibile un periodo di qualche secolo. Ma ci sono ottime ragioni per cui le cose andranno molto più velocemente nei prossimi cinquant'anni di quanto non sia successo negli ultimi cinquanta... Dal 1990, la potenza disponibile per i singoli programmi di IA e di robotica è raddoppiata ogni anno, arrivando a 30 MIPS nel 1994 e a 400 nel 1998. Semi che si ritenevano sterili cominciano improvvisamente a germogliare. Le macchine leggono testi, riconoscono il parlato, addirittura traducono da una lingua all'altra. Robot guidano da una parte all'altra del paese, strisciano su Marte e percorrono sulle loro rotelle i corridoi degli uffici. Nel 1996 un programma di dimostrazione di teoremi che si chiama EQP, girando per cinque settimane su un calcolatore da 50 MIPS dell'Argonne National Laboratory, ha trovato una dimostrazione di una congettura di Herber Robbins nel campo dell'algebra Booleana, che è sfuggita ai matematici per sessanta anni. E siamo solo a primavera. Aspettate che arrivi l'estate. - Hans Moravec, "When Will Computer Hardware Match thè Hu-man Brain?", 1997

Qual è la capacità di calcolo di un cervello umano? Sono state fatte molte stime, sulla base della replica delle funzionalità di regioni cerebrali che sono state retroingegnerizzate (cioè di cui si sono capiti i metodi) ai livelli di prestazione degli esseri umani. Se abbiamo una stima della capacità di calcolo di una particolare regione, possiamo estrapolare quella capacità al cervello intero considerando quale parte del cervello rappresenti quella regione. Le stime sono basate sulla simulazione funzionale, che replica la funzionalità generale di una regione anziché simulare i singoli neuroni e le connessioni interneuronali di quella regione. Non vogliamo basarci sulla stima per una sola regione, ma vediamo che le varie valutazioni, in base a regioni diverse del cervello, danno stime molto vicine fra loro, per il cervello nella sua totalità. Quelle che seguono sono stime di ordine di grandezza. Il fatto che metodi diversi di formulare le stime diano risposte simili corrobora questa impostazione e indica che le stime sono in un intervallo adeguato.

La previsione che ci sarà una Singolarità (una espansione dell'intelligenza umana di un fattore nell'ordine dei bilioni grazie alla fusione con la sua forma non biologica) nell'arco dei prossimi decenni non dipende dalla precisione di questi calcoli. Anche se la nostra stima della quantità di potenza di calcolo necessaria per simulare il cervello umano fosse troppo ottimistica (cioè, troppo bassa) anche di un fattore mille (cosa che mi sembra improbabile), questo ritarderebbe la Singolarità di soli otto anni.

Hans Moravec, il leggendario studioso di robotica della Carnegia Mellon University, ha analizzato le trasformazioni che svolgono i circuiti neurali di elaborazione delle immagini contenuti nella retina. La retina è larga circa due centimetri e spessa mezzo millimetro. La maggior parte della profondità della retina è dedicata alla cattura di un'immagine, ma per un quinto è dedicata all'elaborazione dell'immagine, il che significa fra le altre cose distinguere fra buio e luce e rilevare il movimento in circa un milione di piccole regioni dell'immagine.

La retina, secondo l'analisi di Moravec, esegue dieci milioni di questi rilevamenti di bordo e di movimento al secondo. Sulla base dei suoi decenni di esperienza nella creazione di sistemi di visione robotica, stima che per ricreare ciascuno di questi rilevamenti con livelli di prestazioni pari a quelli degli esseri umani siano necessarie circa un centinaio di istruzioni di calcolo, il che significa che replicare la funzionalità di elaborazione delle immagini di questa parte della retina richiederebbe 1000 MIPS. Il cervello umano ha un peso circa 75.000 volte superiore agli 0,02 grammi di neuroni di questa porzione della retina, e così per tutto il cervello avremmo una stima di circa 10^14 (100 bilioni) di istruzioni al secondo.

Un'altra stima ci arriva dal lavoro di Lloyd Watts e dei suoi colleghi sulla simulazione funzionale di regioni del sistema uditivo umano, di cui parleremo ulteriormente nel Capitolo 4. Una delle funzioni del software sviluppato da Watts è un compito definito "separazione dei flussi", che si usa nella teleconferenza e in altre applicazioni di telepresenza (la localizzazione di ciascuno dei partecipanti in una teleconferenza audio remota). Ottenere questo risultato, spiega Watts, significa "misurare con precisione il ritardo temporale fra i sensori acustici che sono separati nello spazio e che ricevono il suono". Il procedimento comporta l'analisi dell'altezza del suono, della posizione nello spazio e di indizi contenuti nel parlato, fra cui anche indizi specifici del linguaggio. "Uno degli indizi più importanti utilizzati dagli esseri umani per la localizzazione di una sorgente sonora è la differenza temporale interaurale (ITD, Interaural Time Difference), cioè la differenza temporale fra gli istanti di arrivo dei suoni alle due orecchie".

Il gruppo di Watts ha creato equivalenti di queste regioni cerebrali grazie alla retroingegnerizzazione. Watts stima che servano 10^11 cps per ottenere una localizzazione dei suoni a livello umano. Le regioni della corteccia uditiva che svolgono questa elaborazione costituiscono almeno lo 0,1 per cento dei neuroni del cervello. Così anche in questo caso si arriva a una stima di circa 10^14 cps (10^11 cps x 10^3). Un'altra stima ancora arriva da una simulazione effettuata all'Università del Texas, che rappresenta la funzionalità di una regione del cervelietto contenente 10^4 neuroni: ha richiesto circa 10^8 cps, cioè circa 10^4 cps per neurone. Estrapolando ai 10^11 neuroni stimati nel cervello, si ottiene una cifra di circa 10^15 cps per il cervello nella sua totalità.

| << |  <  |  >  | >> |

Pagina 197

CAPITOLO CINQUE


GNR



Tre rivoluzioni sovrapposte

La prima metà del Ventunesimo secolo sarà caratterizzata da tre rivoluzioni sovrapposte: in Genetica, in Nanotecnologia e in Robotica. Ci porteranno in quella che in precedenza ho chiamato Epoca Quinta, l'inizio della Singolarità. Oggi siamo nelle prime fasi della rivoluzione "G". Scoprendo i processi dell'informazione che sottostanno alla vita, cominciamo a imparare come si può riprogrammare la nostra biologia per eliminare praticamente le malattie, aumentare drasticamente le potenzialità umane ed estendere radicalmente la vita. Hans Moravec tuttavia sottolinea che, per quanto riusciamo a mettere a punto la nostra biologia basata sul DNA, gli esseri umani resteranno "robot di serie B", nel senso che la biologia non riuscirà mai a eguagliare quello che sapremo costruire tecnicamente, non appena ci saranno perfettamente chiari i principi di funzionamento della biologia.

La rivoluzione "N" ci permetterà di riprogettare e ricostruire, molecola per molecola, i nostri corpi, i nostri cervelli e il mondo con cui interagiamo, ben oltre i limiti della biologia. Tra le rivoluzioni incombenti, la più potente è la "R": robot di livello umano con intelligenza derivata dalla nostra ma riprogettata per superare di molto le capacità umane. R rappresenta la trasformazione più significativa, perché l'intelligenza è la "forza" più potente nell'universo. L'intelligenza, se abbastanza perfezionata, è, beh, abbastanza intelligente da prevedere e superare qualsiasi ostacolo trovi sul suo cammino.

Ciascuna rivoluzione risolverà i problemi generati da trasformazioni precedenti, ma introdurrà nuovi pericoli. G vincerà le tradizionali difficoltà di malattie e invecchiamento, ma introdurrà la possibilità di nuove minacce virali derivate dalla bioingegneria. Quando N sarà sviluppata a pieno potremo applicarla per proteggerci da tutti i rischi biologici, ma creerà la possibilità di propri pericoli in grado di autoriprodursi, che saranno di gran lunga più potenti di qualsiasi entità biologica. Potremo proteggerci da questi rischi con la R sviluppata, ma chi ci proteggerà da un'intelligenza patologica che superi la nostra? Ho una strategia per affrontare questi problemi, che discuterò alla fine del Capitolo 8; in questo, invece, vedremo come la Singolarità si dispiegherà attraverso queste tre rivoluzioni sovrapposte: G, N e R.


Genetica: l'intersezione di informazione e biologia


Non ci è sfuggito che gli specifici accoppiamenti che abbiamo ipotizzato facciano subito pensare a un possibile meccanismo di copia per il materiale genetico. - James Watson e Francis Crick

Dopo tre miliardi di anni di evoluzione, abbiamo davanti a noi l'insieme di istruzioni che porta ciascuno di noi dall'uovo unicellulare all'età adulta e infine alla tomba. - Robert Waterston, International Human Genome Sequencing Consortium


Alla base di tutte le meraviglie della vita e delle difficoltà della malattia stanno processi di informazione, in sostanza programmi software, sorprendentemente compatti. L'intero genoma umano è un codice binario sequenziale che contiene solo circa ottocento milioni di byte di informazione. Come ho già detto, se si eliminano le sue forti ridondanze mediante tecniche convenzionali di compressione, si rimane con solo da trenta a cento milioni di byte, equivalenti alle dimensioni di un medio programma per computer di oggi. Questo codice è supportato da un gruppo di macchine biochimiche che traducono queste sequenze lineari (unidimensionali) di "lettere" del DNA in stringhe di semplici blocchi da costruzione che prendono il nome di amminoacidi, a loro volta ripiegati in proteine tridimensionali, che costituiscono tutte le creature viventi dai batteri agli esseri umani. (I virus occupano una nicchia fra la materia vivente e quella non vivente, ma sono anch'essi composti di frammenti di DNA o RNA.) Questa "macchina" è essenzialmente un nanoreplicatore che si autoreplica e che costruisce l'elaborata gerarchia di strutture e di sistemi sempre più complessi che formano una creatura vivente.


Il calcolatore della vita

Nei primissimi stadi dell'evoluzione, l'informazione era codificata nella struttura di molecole di complessità crescente, basate sul carbonio. Dopo miliardi di anni la biologia ha evoluto il suo calcolatore per la conservazione e la manipolazione di dati digitali, basato sulla molecola del DNA. La struttura chimica di questa molecola è stata descritta da J. D. Watson e Francis H. C. Crick nel 1953: una doppia elica formata da una coppia di filamenti di polinucleotidi, in cui l'informazione è codificata in ogni posizione in base alla scelta dei nucleotidi. Abbiamo completato la trascrizione del codice genetico agli inizi di questo secolo e ora cominciamo a capire nei dettagli la chimica dei processi di comunicazione e controllo attraverso i quali il DNA guida la riproduzione, mediante altre molecole complesse e strutture cellulari come l'RNA messaggero (mRNA), l'RNA di trasferimento (tRNA) e i ribosomi.

A livello di conservazione dell'informazione il meccanismo è straordinariamente semplice. Sostenuta da una dorsale zucchero-fosfato attoreigliata, la molecola di DNA contiene qualche milione di "gradini", ciascuno dei quali è codificato con una lettera tratta da un alfabeto di quattro lettere; ciascun gradino perciò codifica due bit di dati in un codice digitale unidimensionale. L'alfabeto è costituito da quattro coppie di basi: adenina-timina, timina-adenina, citosina-guanina e guanina-citosina. Se venissero stirati, i filamenti di DNA in una singola cellula misurerebbero circa un metro e mezzo, ma un metodo di impaccamento molto elaborato li ripiega fino a farli stare in una cellula che ha un diametro di circa un millesimo di millimetro.

| << |  <  |