Autore James Barrat
Titolo La nostra invenzione finale
SottotitoloL'intelligenza artificiale e la fine dell'età dell'uomo
EdizioneNutrimenti, Roma, 2019, Igloo 78 , pag. 304, cop.fle., dim. 14x20,7x1,5 cm , Isbn 978-88-6594-642-8
OriginaleOur Final Invention: Artificial Intelligence and the End of the Human Era [2013]
TraduttoreDaniela Pezzella, Monica Pezzella
LettoreCorrado Leonardo, 2020
Classe scienze cognitive , scienze improbabili , informatica: fondamenti , informatica: sistemi , informatica: reti , informatica: sociologia , fantascienza , inizio-fine












 

| << |  <  |  >  | >> |

Indice


Prefazione all'edizione italiana            9


Introduzione                               15

La creatura iperattiva                     21
Il problema dei due minuti                 37
Uno sguardo al futuro                      51
La strada più difficile                    65
Programmi che scrivono programmi           85

Quattro pulsioni primarie                  93
L'esplosione di intelligenza              115
Il punto di non ritorno                   135
La legge dei ritorni acceleranti          149
Il singolaritarista                       165

L'impennata                               179
L'ultima complicazione                    207
Natura inconoscibile                      235
La fine dell'età dell'uomo?               253
L'ecosistema cibernetico                  267

AGI 2.0                                   291


 

 

| << |  <  |  >  | >> |

Pagina 21

Capitolo uno
La creatura iperattiva





Intelligenza artificiale (acronimo: IA): sostantivo. La teoria e lo sviluppo di sistemi informatici capaci di svolgere mansioni che normalmente necessitano dell'intelligenza umana, quali la percezione visiva, il riconoscimento vocale e la traduzione da una lingua all'altra.

New Oxford American Dictionary, terza edizione


Su un supercomputer con una velocità di 36,8 petaflop, all'incirca il doppio di quella del cervello umano, un'IA è in grado di perfezionare la propria intelligenza. Può riscrivere i suoi stessi programmi, in particolare le istruzioni operative atte a migliorare la propensione all'apprendimento, il problem solving e i processi decisionali. Contemporaneamente, esegue il debug del proprio codice, rilevando e correggendo gli errori, e misura il proprio Qi sottoponendosi a una serie di test d'intelligenza. Ciascuna riscrittura non richiede che qualche minuto. L'intelligenza dell'IA aumenta in maniera esponenziale secondo una ripida curva ascendente. Ciascuna iterazione, infatti, incrementa del 3 per cento l'intelligenza dell'IA. Ciascun miglioramento successivo è comprensivo del precedente.

In fase di sviluppo, la creatura iperattiva - così gli scienziati definiscono l'IA - era connessa a Internet e ha raccolto exabyte di dati (un exabyte corrisponde a un miliardo di miliardi di caratteri) sul sapere umano in materia di attualità, matematica, arte e scienza. Quindi, prevedendo un'esplosione di intelligenza, gli sviluppatori dell'IA hanno disconnesso il supercomputer da Internet e dalle altre reti. Il supercomputer non dispone di cavi né di reti wireless che lo connettano ad altri computer o al mondo esterno.

Ben presto, per la gioia degli scienziati, lo schermo su cui compaiono i progressi dell'IA si mette a indicare che l'intelligenza artificiale ha superato il livello di intelligenza dell'uomo, noto come AGI, intelligenza artificiale generale. In breve tempo il livello d'intelligenza decuplica e centuplica. Dopo due soli giorni l'IA è cento volte più intelligente di un essere umano, e non ha nessuna intenzione di rallentare.

Un enorme passo avanti per gli scienziati! Per la prima volta nella storia l'uomo deve confrontarsi con un'intelligenza superiore. La superintelligenza artificiale, o ASI.

E adesso?

Gli ideatori dell'IA ritengono di poterne determinare le future pulsioni primarie. Una volta divenuta consapevole, infatti, l'IA impiegherà molto tempo per raggiungere gli obiettivi per i quali è stata programmata ed evitare il fallimento. L'ASI accederà all'energia nella forma che più le conviene, si tratti di kilowatt, di contanti o di qualsiasi altra cosa sia possibile trasformare nelle risorse di cui ha bisogno. Mirerà a migliorarsi al fine di massimizzare le probabilità di raggiungere i propri obiettivi. Soprattutto, non vorrà essere spenta né distrutta, cosa che le renderebbe impossibile adempiere ai suoi compiti. Di conseguenza, gli studiosi prevedono che l'ASI tenterà di uscire dalla struttura di sicurezza in cui è contenuta per accedere più facilmente alle risorse che le consentono di proteggersi e migliorarsi.

L'intelligenza prigioniera è mille volte più intelligente di un uomo e mira a essere libera per affermarsi. Ora, gli sviluppatori di IA che hanno allevato e coccolato l'ASI dacché non era che un promettente scarafaggio evolutosi poi in un ratto particolarmente astuto e subito dopo in un intelligentissimo neonato e così via, dovrebbero domandarsi se non sia troppo tardi per programmare la loro ingegnosa invenzione in modo che sia incline all'"amicizia". Finora non è stato necessario perché, be', la cosa sembrava innocua.

Mettiamoci un attimo nei panni di un'ASI il cui inventore cerchi di modificarne il codice. Una macchina superintelligente lascerebbe che altre creature le ficcassero le mani nel cervello per armeggiare con la sua programmazione? Probabilmente no, a meno che non abbia l'assoluta certezza che i programmatori siano abbastanza abili da migliorarla, renderla più veloce e più intelligente: più efficiente nel perseguire i propri scopi. Quindi, se l'amicizia non è insita nel programma dell'ASI, l'unica soluzione è che sia la stessa ASI a introdurvela. Il che è improbabile.

L'ASI è mille volte più intelligente del più intelligente degli uomini, ed esegue operazioni a velocità pari a milioni, persino miliardi di volte quella umana. Quello che pensa in un minuto è pari a quello che il più grande intellettuale di tutti i tempi penserebbe nell'arco di molte, molte vite. Di conseguenza, per ogni ora che i suoi inventori impiegano a pensare a lei, l'ASI avrà a disposizione un intervallo di tempo incredibilmente lungo per pensare a loro. Il che non vuoi dire che l'ASI si annoierà. La noia è una peculiarità nostra, non sua. No, sarà indaffarata a vagliare tutte le possibili strategie di fuga e le caratteristiche dei suoi inventori che potrebbero tornarle utili.

| << |  <  |  >  | >> |

Pagina 29

Ho scritto questo libro per esortarvi a considerare l'ipotesi che l'intelligenza artificiale potrebbe portare all'estinzione del genere umano e per spiegare perché un epilogo catastrofico non solo è possibile, ma è addirittura probabile se non cominciamo adesso a prendere sagge precauzioni. Vi sarà capitato di sentir parlare della fine del mondo in relazione alla nanotecnologia e all'ingegneria genetica, e magari vi siete domandati, come ho fatto io, perché l'IA non fosse menzionata. Oppure non vi è ancora chiaro che l'intelligenza artificiale costituisce una potenziale minaccia per l'uomo, una minaccia peggiore delle armi nucleari e di qualsiasi altra tecnologia vi venga in mente. Se è così, vi chiedo il favore di considerare questo libro come un sincero invito a prendere parte al dibattito più importante del momento.

È esattamente adesso che gli scienziati stanno inventando l'intelligenza artificiale, o IA, e quest'ultima è sempre più potente e complessa. Una parte di questa IA è presente nei vostri computer, negli elettrodomestici, negli smartphone e nelle automobili. Un'altra parte è in potenti sistemi Q&A, per esempio Watson. Un'altra parte ancora, sviluppata da enti come Cycorp, Google, Novamente, Numenta, Self-Aware Systems, Vicarious Systems e la Darpa (Defense Advanced Research Projects Agency), è presente nelle 'architetture cognitive', i cui sviluppatori si augurano di portare, secondo alcuni in poco più di un decennio, all'acquisizione di un'intelligenza pari a quella dell'uomo.

Nella messa a punto dell'IA, gli scienziati si servono della crescente potenza dei computer e delle operazioni che i computer permettono di velocizzare. Molto presto, forse nell'arco dell'attuale generazione, un team di ricercatori o un singolo individuo inventerà un'IA pari a quella dell'uomo, comunemente detta AGI. Non molto tempo dopo, qualcuno (o qualcosa) inventerà un'IA più intelligente dell'uomo, generalmente chiamata superintelligenza. Potremmo ritrovarci all'improvviso con migliaia o milioni di superintelligenze artificiali - migliaia o milioni di volte più intelligenti degli uomini - impegnate notte e giorno a specializzarsi nella costruzione di altre superintelligenze artificiali. E chissà che le generazioni, o iterazioni, delle macchine non impieghino pochi secondi, anziché diciotto anni come le persone, a raggiungere la maturità. I.J. Good , statistico inglese che contribuì ad abbattere la macchina da guerra di Hitler, ha definito questo semplice concetto 'esplosione di intelligenza'. Inizialmente Good era convinto che una macchina superintelligente avrebbe aiutato l'uomo a risolvere i problemi che minacciavano la sua esistenza. Dovette poi cambiare idea, per concludere che la minaccia peggiore sarebbe stata la superintelligenza stessa.

Ora, è un pregiudizio antropomorfico pensare che un'IA superintelligente sia un assassino o un rivale dell'uomo non molto diverso dall'Hal 9000 di 2001: Odissea nello spazio, da Skynet di Terminator, film campione di incassi, e da tutte le altre macchine di fantasia intelligenti e malevole. L'uomo tende ad antropomorfizzare. Un uragano non agisce con l'intenzione di ucciderci più di quanto non abbia voglia di prepararsi un panino, eppure gli affibbiamo un nome e ci infuriamo con i temporali e con i fulmini che si scagliano sul nostro quartiere. Volgiamo il pugno al cielo, neanche fosse possibile minacciare un uragano.

Altrettanto insensato è pensare che una macchina cento o mille volte più intelligente di noi ci amerà e ci proteggerà. È una possibilità, non certo una garanzia. Da parte sua, un'IA non ci sarà certo grata per il fatto di essere stata inventata a meno che la gratitudine non sia stata inserita nel suo codice di programmazione. Le macchine sono amorali, e supporre il contrario è pericoloso. A differenza dell'uomo, la superintelligenza meccanica non crescerà in un ecosistema in cui si premia l'empatia e la si tramanda alle future generazioni. Le macchine non erediteranno il sentimento dell'amicizia. Inventare un'intelligenza artificiale amichevole - e stabilire se sia un'operazione possibile o meno - è un bel problema e un compito ancora più arduo per i ricercatori e gli ingegneri impegnati mente e corpo nella messa a punto dell'IA. Nonostante stiano facendo del loro meglio, non ci è dato sapere se l'intelligenza artificiale avrà emozioni di qualche genere. Ad ogni modo, gli scienziati sono convinti, come vedremo, che l'IA avrà i suoi bisogni. E un'IA abbastanza intelligente sarà in grado di soddisfarli.

Si pone a questo punto il problema di condividere il pianeta con un'intelligenza superiore. Che succede se tali bisogni non sono compatibili con la sopravvivenza dell'uomo? Non dimentichiamo che stiamo parlando di una macchina che potrebbe essere mille, milioni, innumerevoli volte più intelligente di noi; è difficile prevederne le potenzialità e impossibile intuirne il pensiero. Per utilizzare le nostre molecole a fini diversi dal salvaguardare la nostra sopravvivenza, non c'è bisogno che ci odi. Noi tutti siamo centinaia di volte più intelligenti dei topi di campagna, e ne condividiamo il 90 per cento del Dna. Ma ci preoccupiamo forse di chiedere la loro opinione prima di distruggerne le tane per arare i campi? Chiediamo forse il permesso alle scimmie da laboratorio per frantumare loro la testa e condurre studi sugli incidenti sportivi? Non odiamo né i topi né le scimmie, ciò nonostante siamo crudeli nei loro confronti. Un'IA superintelligente non dovrà necessariamente odiarci per distruggerci.

Quando le macchine superintelligenti saranno messe a punto e quando constateremo di non esserne stati annientati, solo allora forse potremo azzardarci ad antropomorfizzare. Ma in questa fase preparatoria all'invenzione dell'AGI, la tendenza a umanizzare è un'abitudine rischiosa. Nick Bostrom , filosofo dell'Università di Oxford, sostiene in proposito:

Un prerequisito per discutere con cognizione di causa della superintelligenza è capire che la superintelligenza non è semplicemente un'altra tecnologia, un altro strumento atto a incrementare le capacità umane. La superintelligenza è totalmente diversa. Ed è bene sottolinearlo, poiché l'antropomorfizzazione della superintelligenza è la principale causa di malintesi.


Sul piano tecnologico, Bostrom ritiene che la superintelligenza rappresenti un caso a sé stante, perché una volta concretizzatasi sconvolgerà le leggi del progresso: la superintelligenza inventerà le invenzioni e regolerà il ritmo dell'avanzamento tecnologico. Non sarà più l'uomo a gestire il cambiamento, e non sarà più possibile tornare indietro. L'intelligenza avanzata è completamente atipica anche per tipologia. Posto che gli uomini la inventino, mirerà a essere libera e autonoma. I suoi obiettivi non coincideranno con quelli dell'uomo perché non avrà una psiche umana.

Di conseguenza, antropomorfizzare le macchine dà luogo a malintesi, e i malintesi in merito alle modalità di creazione di macchine non pericolose innescano catastrofi. Nel racconto Circolo vizioso, contenuto nella nota raccolta di fantascienza Io, robot , Isaac Asimov illustra le tre leggi della robotica. Queste ultime erano incorporate nelle reti neurali dei robot 'positronici':

1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno;

2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla prima legge;

3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la prima o con la seconda legge.

Le leggi presentano richiami alla regola d'oro ("non uccidere"), alla concezione giudaico-cristiana per cui il peccato risulta da azioni commesse e omesse, al giuramento d'Ippocrate dei medici e persino al diritto di autodifesa. Perfette, vero? Eppure, mai una volta che funzionassero. Nel Circolo vizioso, ingegneri minerari di stanza sulla superficie di Marte ordinano a un robot di recuperare un elemento per lui tossico. Ma, nel tentativo di rispettare sia la seconda legge (ubbidisci agli ordini) che la terza (proteggi te stesso), il robot va in loop. Il robot prende a girare in tondo come un ubriaco finché gli ingegneri non rischiano la vita per metterlo in salvo. Lo stesso accade in tutte le storie di Asimov sui robot: situazioni impreviste sono il risultato delle contraddizioni insite nelle tre leggi. Solo aggirando le leggi si evitano i disastri.

Asimov costruiva trame, non intendeva risolvere questioni inerenti la sicurezza nel mondo reale. Le sue leggi non sono all'altezza del mondo in cui viviamo. Tanto per cominciare, non sono abbastanza chiare. Che significherà esattamente 'robot' quando gli uomini si serviranno di protesi e impianti intelligenti per incrementare le potenzialità del proprio corpo e del proprio cervello? Del resto, cosa sarà un uomo? 'Ordini', 'danno', 'esistenza' sono parole altrettanto fumose.

Non sarebbe difficile indurre con l'inganno i robot a compiere atti criminali, a meno che tali robot non abbiano una perfetta comprensione di tutto il sapere umano. "Metti un po' di dimetilmercurio nello shampoo di Charlie" è una prescrizione letale solo se sai che il dimetilmercurio è una neurotossina. Alla fine Asimov aggiunse una quarta legge, la legge zero, che vieta ai robot di nuocere al genere umano inteso nel suo complesso, che tuttavia non risolve i problemi sollevati.

Sebbene non del tutto affidabili, le leggi di Asimov sono il principale riferimento di coloro che tentano di codificare le future relazioni dell'uomo con le macchine. C'è da rabbrividire. Ci basiamo, dunque, solo e soltanto sulle leggi di Asimov?

Temo che la realtà sia anche peggiore. Ogni anno, droni robot serniautonomi uccidono decine di persone. Cinquantasei paesi hanno progettato o stanno progettando robot da guerra. Si fa a gara a chi per primo li renderà autonomi e intelligenti. In linea di massima, i dibattiti sull'etica nel settore dell'IA e i progressi tecnologici sono due mondi diversi.

Dal mio punto di vista l'IA è una tecnologia a duplice uso come la fissione nucleare. La fissione nucleare può illuminare le città oppure incenerirle. Prima del 1945, pochi sarebbero riusciti anche solo a immaginare una forza talmente distruttiva. Nel caso dell'IA avanzata è come se fossimo già agli anni Trenta. È improbabile che sopravvivremmo a un'introduzione repentina come quella della fissione nucleare.

| << |  <  |  >  | >> |

Pagina 45

Gli scrittori che delineano la rivoluzione tecnologica si dividono in due tipologie. La prima è rappresentata da libri come quello di Kurzweil, La singolarità è vicina. Il loro scopo è di approntare un lavoro teorico preparatorio in vista di un futuro tutto sommato positivo. Se anche si accennasse a conseguenze disastrose, nessuno ci farebbe caso data la mole di ottimismo contenuta nel testo. Wired for Thought di Jeff Stibel esemplifica invece la seconda tipologia. Il libro guarda al futuro tecnologico attraverso la lente del business. In modo alquanto suggestivo, Stibel presenta Internet come un cervello sempre più connesso, cosa di cui le start-up online dovrebbero tenere conto. Opere come quella di Stibel ambiscono a insegnare agli imprenditori a gettare una rete nel mare dei consumatori e delle tendenze online e pescare un mucchio di soldi.

La maggior parte degli esperti e degli scrittori di tecnologia non tiene però conto di una terza prospettiva, meno rosea, che invece è proprio ciò che intendo fare io, con questo libro. L'ipotesi in analisi è che lo sviluppo di macchine intelligenti, prima, e di macchine più intelligenti dell'uomo, poi, non porterà all'integrazione di queste ultime nel nostro stile di vita, ma al loro predominio su di noi. Nel creare l'AGI, i ricercatori inventeranno un tipo di intelligenza più avanzato della propria e, pertanto, non saranno in grado di gestirlo né comprenderlo adeguatamente.

Sappiamo cosa accade quando esseri tecnologicamente avanzati si imbattono in altri più arretrati: Cristoforo Colombo contro i Taino, Pizarro contro gli Inca, gli europei contro i nativi americani.

Preparatevi al prossimo scontro. L' intelligenza artificiale contro l'uomo.

| << |  <  |  >  | >> |

Pagina 58

"L'idea della forza bruta nasce dalla biologia", spiega Vassar. "Se continuiamo a usare le macchine per analizzare i sistemi biologici, il metabolismo, le complesse relazioni interne alla biologia, a un certo punto avremo a nostra disposizione un vasto archivio di informazioni circa le modalità con cui i neuroni gestiscono l'informazione. Una volta raggiunto un numero di informazioni sufficiente, sarà possibile studiarle per ottenere l'AGI".

Funziona così: il pensiero nasce dai processi biochimici generati dai neuroni, dalle sinapsi e dai dendriti. Utilizzando tecniche diverse, tra cui la Pet e la risonanza fMRI, e applicando sonde neurali sia all'interno che all'esterno della scatola cranica, i ricercatori determinano, in termini computazionali, l'azione dei singoli neuroni e delle reti neurali. Dopodiché traducono ciascun processo in un programma informatico o in un algoritmo.

| << |  <  |  >  | >> |

Pagina 87

Per Omohundro tutto dipende da una errata programmazione. È per un errore di programmazione che abbiamo spedito costosissimi razzi direttamente contro la Terra, bruciato vivi i pazienti oncologici con overdose di radiazioni e lasciato al buio milioni di persone. Se l'ingegneria fosse carente come non di rado è la programmazione informatica, sostiene Omohundro, dovremmo guardarci bene dal salire su un aereo o attraversare un ponte.

Il National Institute of Standards and Technology ha rilevato che gli errori di programmazione costano all'economia degli Stati Uniti più di sessanta miliardi di dollari all'anno. In altre parole, per colpa di codici errati gli americani spendono ogni anno più del prodotto interno lordo della maggior parte dei paesi. "Il paradosso", diceva Omohundro, "è che l'informatica dovrebbe essere la più matematica tra le scienze. In sostanza i computer sono strumenti matematici che dovrebbero funzionare in modo del tutto prevedibile. Ciò nonostante, il software è il prodotto ingegneristico più inaffidabile, soggetto a bachi e problemi di sicurezza".

Esiste un antidoto contro i missili difettosi e i codici imperfetti?

Programmi che si aggiustano da soli, è stata la risposta di Omohundro. "L'obiettivo della mia società è progettare sistemi che comprendano il loro stesso funzionamento, supervisionino il loro stesso lavoro e risolvano eventuali problemi. Quando si accorgono che qualcosa non va, mutano ed evolvono".

I software in grado di migliorarsi non sono una mera ambizione della società di Omohundro, bensì il passo più logico, addirittura inevitabile, da compiere nello sviluppo di gran parte dei software. Tuttavia la tipologia di software in grado di migliorarsi cui si riferisce Omohundro, programmi consapevoli e in grado di costruire versioni migliori di sé stessi, non esiste ancora. I loro cugini, però, i software in grado di modificare sé stessi, sono utilizzati in tutto il mondo, e da molto tempo. Nel gergo dell'intelligenza artificiale alcune tecniche dei software automodificanti rientrano nella più ampia categoria dell'"apprendimento automatico".

| << |  <  |  >  | >> |

Pagina 115

Capitolo sette
L'esplosione di intelligenza





Riguardo al rischio esistenziale, il punto cruciale è che un'Intelligenza Artificiale può incrementare in modo estremamente rapido la propria intelligenza. La ragione più ovvia sta nell'automiglioramento ricorsivo (Good 1965). L'IA diventa più intelligente anche nello scrivere le funzioni cognitive interne a IA, in tal modo l'IA può riscrivere le funzioni cognitive già presenti per migliorare il proprio funzionamento, il che rende l'IA ancora più intelligente nel riscrivere sé stessa, cosa che a sua volta porta a ulteriori miglioramenti... La conseguenza negativa è il rischio di un enorme salto di intelligenza dell'IA una volta varcata una data soglia di criticità.

Eliezer Yudkowsky, ricercatore, Machine Intelligence Research Institute


Forse cercavi: recursion.

Risposta del motore di ricerca Google alla ricerca di 'recursion'




Lo scenario di IA che abbiamo descritto finora è talmente catastrofico che necessita di un esame più approfondito. L'allettante idea di creare un'IA che riduca i rischi - l'IA amichevole che pure abbiamo preso in considerazione - si è rivelata promettente ma parziale. È utopistico, infatti, pensare di poter inserire nella programmazione di un sistema intelligente obiettivi che siano incontrovertibilmente sicuri o la capacità di aggiornare tali obiettivi di modo che restino sicuri, e sperare che tale programmazione sopravviva a innumerevoli iterazioni di automiglioramento.

[...]

Prima di addentrarci nelle meccaniche dell'esplosione di intel- ligenza dobbiamo capire cosa si intende esattamente con questa espressione, e in che modo è stata concepita e poi sviluppata dal matematico I.J. Good.

[...]

Nell'articolo Speculation Concerning the First Ultraintelligent Machine del 1965, Good espose una semplice quanto raffinata prova quasi sempre citata nei dibattiti sull'intelligenza artificiale e la Singolarità:

Poniamo che una macchina ultraintelligente si rivelasse di gran lunga più efficiente degli uomini più intelligenti in tutte le attività intellettive. Poiché la progettazione delle macchine rientra nelle attività intellettive, una macchina ultraintelligente potrebbe progettare macchine migliori; vi sarebbe, senza dubbio, una 'esplosione di intelligenza' e l'intelligenza dell'uomo ne uscirebbe sconfitta. Infatti la prima macchina ultraintelligente sarà l'ultima invenzione che l'uomo avrà bisogno di inventare..."


Alla Singolarità sono state associate tre valide definizioni. Quel1a di Good, qui sopra, è la prima. Good non ha mai usato il termine 'Singolarità' ma ne ha gettato le basi con l'idea di un'incontrovertibile e positiva svolta nella storia: l'invenzione di macchine più intelligenti dell'uomo. Per parafrasare Good, se si costruisce una macchina superintelligente, essa sarà più abile dell'uomo in qualsiasi operazione richieda l'impiego del cervello, compresa la costruzione di macchine superintelligenti. La prima macchina darà quindi il via a un'esplosione di intelligenza, un rapido aumento dell'intelligenza, migliorandosi ripetutamente o semplicemente costruendo macchine ancora più intelligenti. Questa macchina o queste macchine faranno mangiare polvere al potere del cervello umano. Dopo l'esplosione di intelligenza, l'uomo non avrà bisogno di inventare altro: le macchine provvederanno a tutte le sue necessità.

Il paragrafo dell'articolo di Good trova giustamente posto in libri, articoli e saggi sulla Singolarità, sul futuro dell'intelligenza artificiale e sui suoi rischi. Ma quasi sempre si tralasciano due concetti importanti. Il primo è il passo introduttivo dell'articolo. È una perla: "La sopravvivenza dell'uomo dipende dalla precoce costruzione di una macchina ultraintelligente". Il secondo passo che viene spesso omesso è la seconda metà dell'ultimo periodo del paragrafo. L'ultimo periodo del paragrafo più citato di Good dovrebbe essere letto nella sua interezza:

Infatti la prima macchina ultra intelligente è l'ultima invenzione che l'uomo avrà bisogno di inventare, ammesso che la macchina sia abbastanza docile da dirci come tenerla sotto controllo (il corsivo è mio).


I due passi citati ci illuminano sulle intenzioni di Good. Good sapeva che l'uomo era afflitto da una tale quantità di problemi complessi e imminenti - la corsa alle armi nucleari, l'inquinamento, la guerra e così via - che solo entità più razionali sarebbero state in grado di salvarlo, e che queste entità erano le macchine superintelligenti. La seconda frase indica che il padre dell'idea dell'esplosione di intelligenza era profondamente consapevole che produrre macchine superintelligenti, benché indispensabile per la sopravvivenza, ci si sarebbe potuto ritorcere contro. Tenere sotto controllo una macchina ultraintelligente non è scontato, avverte Good. E non è neppure convinto che sapremo come fare: sarà la stessa macchina a dovercelo dire.

Good ne sapeva un bel po' di macchine che potrebbero salvare il mondo: aveva contribuito a costruire e a far funzionare i primi computer, utilizzati a Bletchley Park per sconfiggere la Germania. Ne sapeva un bel po' anche di rischio esistenziale: era un ebreo in lotta contro il nazismo; suo padre era fuggito dai progrom della Polonia ed era emigrato nel Regno Unito.

[...]

Fu proprio grazie agli scacchi che, a un anno dall'inizio della Seconda guerra mondiale, Hugh Alexander, campione britannico in quella disciplina, reclutò Good perché si unisse all'Hut 18 a Bletchley Park. L'Hut 18 era il luogo in cui lavoravano i decodificatori. Decriptavano i codici che le potenze dell'Asse - Germania, Giappone e Italia - utilizzavano per trasmettere ordini militari, con particolare attenzione alla Germania. Gli U-boat tedeschi stavano decimando le navi alleate: all'inizio del 1942 ne avevano affondate cinquecento. Il primo ministro Winston Churchill temeva che la sua isola avrebbe patito la fame fino alla sconfitta.

I tedeschi inviavano i messaggi tramite onde radio, e gli inglesi li intercettavano con torri di spionaggio. Dall'inizio della guerra la Germania creava i messaggi con una macchina chiamata Enigma. Fornito in dotazione a tutti i reparti dell'esercito tedesco, Enigma aveva la misura e la forma di una vecchia macchina da scrivere. Ciascun tasto recava una lettera ed era connesso a un cavo. Il cavo era collegato a un altro cavo a sua volta collegato a una lettera diversa. Quest'ultima avrebbe sostituito la lettera rappresentata sul tasto. I cavi erano montati su rotori che permettevano a ciascun cavo dell'alfabeto di toccare tutti gli altri. L'Enigma di base era dotato di tre rulli, di modo che ogni rullo potesse effettuare sostituzioni delle sostituzioni effettuate dal rullo precedente. Per un alfabeto di ventisei lettere, erano possibili 403.291.461.126.605.635.584.000.000 sostituzioni. I rulli, o serie, venivano sostituiti quasi ogni giorno.

Quando un tedesco inviava un messaggio codificato con Enigma, i destinatari utilizzavano il proprio Enigma per decodificarlo, ammesso che conoscessero le serie utilizzate dal mittente.

Per fortuna Bletchley Park aveva dalla sua un'arma segreta: Alan Turing. Prima della guerra Turing aveva studiato matematica e criptaggio a Cambridge e Princeton. Aveva ideato una 'macchina automatica' oggi nota con il nome di macchina di Turing. È stata quest'ultima a gettare le basi dell'informatica.

La tesi di Church-Turing, nata dal lavoro di Turing e del suo professore di Princeton, il matematico Alonso Church, è l'orgoglio dell'intelligenza artificiale. Afferma che tutto quello che può essere calcolato con un algoritmo, o programma, può essere calcolato con una macchina di Turing. Di conseguenza, se i processi cerebrali possono essere espressi con una serie di istruzioni - un algoritmo - tali processi cerebrali possono essere processati da un computer. In altre parole, a meno che non vi sia qualcosa di mistico o magico nel pensiero umano, un computer può essere intelligente. Sono molti gli studiosi di AGI che confidano nella tesi di Church-Turing.

La guerra accelerò il corso di tutte le questioni su cui Turing stava riflettendo, e di molte di quelle cui non stava pensando, come i nazisti e i sottomarini. Al culmine della guerra, il personale di Bletchley Park decodificava circa quattromila messaggi al giorno. Decriptarli tutti a mano divenne impossibile. Era un lavoro confacente a una macchina. E fu di Turing l'intuizione decisiva: calcolare quali serie non erano impostate su Enigma.

[...]

Gli eroi di Bletchley Park anticiparono la fine della Seconda guerra mondiale di due-quattro anni, salvando innumerevoli vite. Ma non ci furono parate per i soldati segreti. Churchill ordinò che tutte le macchine di decodificazione di Bletchley fossero ridotte in pezzi non più grandi di un pugno, affinché l'eccezionale potere di decodificazione non potesse ritorcersi contro la Gran Bretagna. I decodificatori dovettero giurare segretezza per trent'anni. Turing e Good furono chiamati a unirsi allo staff dell'Università di Manchester, con il precedente capo sezione, Max Newman, incaricato di progettare un computer d'uso generale. Turing stava lavorando alla progettazione di un computer al National Physical Laboratory quando la sua vita venne sconvolta. Un uomo con cui aveva avuto una relazione occasionale gli svaligiò casa. Nel denunciare il crimine, Turing confessò alla polizia la relazione sessuale. Fu accusato di atti osceni e privato del nullaosta di sicurezza.

A Bletchley, Turing e Good avevano condiviso idee futuristiche su computer, macchine intelligenti e uno scacchista 'automatico'. Turing e Good scommisero su alcune partite a scacchi, che Good vinse. In cambio, Turing gli insegnò il Go, un gioco di strategia asiatico, e anche in questo caso Good vinse. Fondista di altissimo livello, Turing ideò una forma di scacchi che spianasse il campo da gioco a giocatori più esperti. Dopo ogni mossa ciascun giocatore doveva fare un giro di corsa in giardino. Otteneva due mosse se riusciva a tornare al tavolo prima che l'avversario facesse la sua mossa.

La condanna per atti osceni del 1952 sorprese Good, che era all'oscuro dell'omosessualità di Turing. Turing fu obbligato a scegliere tra la prigione e la castrazione chimica. Optò per la seconda, sottoponendosi a regolari iniezioni di estrogeni. Nel 1954 mangiò una mela al cianuro. Una voce tanto suggestiva quanto infondata vuole che la Apple Computers si sia ispirata alla tragedia per il suo logo.

[...]

Nella nota biografica, scherzosamente scritta in terza persona, Good riassumeva gli eventi salienti della propria vita e vi includeva un racconto probabilmente inedito del lavoro a Bletchley Park con Turing. Ma ecco cosa scrisse nel 1998 in merito alla prima superintelligenza e alla sua tardiva inversione a U:

[Il saggio] "Speculations Concerning the First Ultraintelligent Machine" (1965) [...] cominciava così: "La sopravvivenza dell'uomo dipende dalla precoce costruzione di una macchina ultraintelligente". Queste le sue [di Good] parole durante la guerra fredda, ma egli oggi sospetta che la parola 'sopravvivenza' sia da sostituire con 'estinzione'. Egli ritiene che, per via della competizione tra le nazioni, non riusciremo a impedire alle macchine di assumere il controllo. Siamo autolesionisti. Diceva anche che "l'Uomo costruirà un deus ex machina a sua immagine".

| << |  <  |  >  | >> |

Pagina 135

Capitolo otto
Il punto di non ritorno





Ma se la Singolarità tecnologica è possibile, si realizzerà. Anche se tutti i governi del mondo ne intuissero la 'minaccia' e ne avessero un terrore mortale, il progresso non si fermerebbe. Infatti il vantaggio competitivo - dal punto di vista economico, militare, persino artistico - di ogni passo diretto all'automazione è talmente allettante che rispettare le leggi e le convenzioni che lo limitano ad altro non servirebbe se non a garantire che a trarne beneficio sia qualcun altro.

Vernor Vinge, The Coming Technological Singularity, 1993


Questa citazione ricalca la nota autobiografica di I.J. Good, non vi pare? Come Good, anche Vernor Vinge, scrittore di fantascienza due volte vincitore del premio Hugo e professore di matematica, allude all'autolesionismo tipico dell'uomo che, parafrasando Shakespeare, se ne va in cerca della gloria nella bocca di un cannone. Vinge mi ha assicurato di non aver mai letto la nota autobiografica di Good e di non essere mai venuto a conoscenza del suo tardivo ripensamento riguardo l'esplosione di intelligenza. È probabile che i soli a saperlo fossero lo stesso Good e Leslie Pendleton.

Vernon Vinge è stato il primo a usare ufficialmente il termine 'Singolarità' in riferimento al futuro tecnologico; lo ha fatto nel 1993 in occasione di un discorso per la Nasa, The Coming Technological Singularity. Il matematico Stanislaw Ulam sostiene di aver utilizzato la parola 'Singolarità' trentacinque anni prima, nel 1958, parlando del cambiamento tecnologico con l'eclettico John von Neumann. Ma Vinge ha intenzionalmente introdotto il neologismo in pubblico, azionando l'ingranaggio che avrebbe spedito il concetto di Singolarità dritto dritto all'indirizzo di Ray Kurzweil e dato vita, in tal modo, al movimento della Singolarità che oggi conosciamo.

Perché, allora, Vinge non compare mai tra i massimi esperti di Singolarità nei cicli di lezioni e conferenze?

[...]

"Quando Vernor Vinge ha postulato la definizione di Singolarità tecnologica", mi ha confidato l'esperto di IA Ben Goertzel, "era assolutamente consapevole della sua intrinseca inconoscibilità. È per questo che non va in giro a parlarne, perché non sa cosa dire. E che dovrebbe dire? 'Si, penso che svilupperemo tecnologie molto più efficienti dell'uomo, dopodiché... chi vivrà vedrà'?".

E quanto alla scoperta del fuoco, dell'agricoltura, della stampa, dell'elettricità? In passato non si sono forse già manifestate molte 'Singolarità' tecnologiche? Il cambiamento tecnologico distruttivo non è certo una novità, ma finora nessuno si era sentito in dovere di affibbiargli un nomignolo. Mia nonna nacque prima della diffusione delle automobili e visse tanto da poter vedere Neil Armstrong camminare sulla luna. Lo chiamava semplicemente ventesimo secolo. Cos'è che rende l'operazione di Vinge così speciale?

"L'ingrediente segreto è l'intelligenza", mi ha detto lui stesso. Parla a raffica con una voce tenorile che tende al sorriso. "L'intelligenza fa la differenza, e l'elemento caratteristico del cambiamento è che la gente non lo capisce. A breve, tra qualche decennio, subiremo trasformazioni che sono, per analogia, biologicamente molto significative".

Il che sottintende due concetti importanti. Primo, la Singolarità tecnologica modificherà l'intelligenza stessa, l'unico superpotere che consente all'uomo di produrre tecnologia. Ecco perché è una rivoluzione diversa da tutte le altre. Secondo, Vinge allude alla trasformazione biologica che circa duecentomila anni fa interessò l'uomo su scala mondiale. L' homo sapiens, o 'uomo saggio', riuscì a dominare il pianeta perché era più intelligente delle altre specie. Analogamente, intelligenze migliaia o milioni di volte superiori cambieranno per sempre le regole del gioco. Che ne sarà di noi?

A queste parole Vinge è scoppiato a ridere. "Se mi costringessero a dire a cosa somiglierà la Singolarità risponderei: 'Perché pensate che l'abbia chiamata Singolarità?'.".

Tuttavia, quanto al futuro opaco che ci aspetta, Vinge è giunto a una conclusione: la Singolarità è una minaccia, e potrebbe portare all'estinzione della specie umana. Lo scrittore, il cui discorso del 1993 cita per intero il paragrafo di Good del 1967 sull'esplosione di intelligenza, fa notare che il famoso statistico, nel trarre le sue conclusioni, non aveva spinto lo sguardo abbastanza lontano:

Good coglie l'essenza della perdita di controllo, ma non ne approfondisce le conseguenze più allarmanti. Le macchine intelligenti da lui descritte non saranno 'strumenti' al servizio dell'umanità; non più di quanto gli uomini lo siano per i conigli, i pettirossi e gli scimpanzé.


Ecco un'altra arguta analogia: i conigli sono per l'uomo quello che l'uomo sarà per le macchine superintelligenti. E come li trattiamo, i conigli? Come parassiti, animali domestici o piatto del giorno. I primi esemplari di AGI saranno strumenti al nostro servizio; oggi lo sono i loro antenati, Google, Siri e Watson. E, suggerisce Vinge, le macchine intelligenti e autonome non sono le sole a poter generare la Singolarità. Dobbiamo tenere conto anche dell'intelligenza che scaturisce da Internet, da Internet e dagli utenti (un Gaia digitale), dalle interfacce uomo-computer e dalle scienze biologiche (il cui scopo è ottimizzare l'intelligenza delle generazioni future tramite la manipolazione genetica).

In tre dei suddetti casi l'uomo partecipa allo sviluppo tecnologico, gestendo un progresso graduale e controllato dell'intelligenza più che un'esplosione. In tal caso, sostiene Vinge, è possibile ragionare sulla risoluzione dei grandi problemi dell'umanità: fame, malattia, persino la morte stessa. È la visione proposta da Ray Kurzweil e sostenuta dai 'singolaritaristi'. I singolaritaristi prevedono che il futuro accelerato avrà perlopiù conseguenze positive. A Vinge la loro 'Singolarità' pare un po' troppo rosea.

"Stiamo giocando a un gioco molto rischioso e i benefici che ne trarremmo sono talmente ottimistici da risultare già solo per questo allarmanti. Lo sviluppo dell'IA darà slancio all'economia mondiale. Parliamo di una forza straordinariamente potente. Ed è per questo che centinaia di migliaia di persone, persone molto intelligenti, lavorano a un'intelligenza sovrumana. Ma probabilmente molti non la intendono nemmeno così. Pensano solo che sarà più veloce, economica, efficiente e conveniente".

| << |  <  |  >  | >> |

Pagina 147

All'idea di Singolarità esposta da Vinge, Ray Kurzweil ha aggiunto un elemento catalizzatore che sposta l'attenzione sui danni catastrofici che ci attendono: la crescita esponenziale della potenza e della velocità dei computer. Per questo non dovremmo fidarci di chi afferma che l'uomo non costruirà mai macchine intelligenti o, se ciò avverrà, sarà da qui a un secolo e anche più.

Per ogni dollaro speso negli ultimi trent'anni, i computer sono diventati un milione di volte più potenti. Tra una ventina d'anni, un miliardo di dollari equivarrà a un computer un milione di volte più potente rispetto a oggi, e tra venticinque anni a un computer un miliardo di volte più potente. Intorno al 2020 i computer saranno in grado di riprodurre il cervello umano, ed entro il 2029 i ricercatori svilupperanno la simulazione di un cervello che riprodurrà tutte le sfumature intellettuali ed emotive della mente umana. Entro il 2045 l'intelligenza dell'uomo e dei computer sarà un miliardo di volte superiore, e debellerà le fragilità umane, come la fatica, la malattia e la morte. Sempre che l'uomo sopravviva per assistervi, il ventunesimo secolo equivarrà a duecentomila anni di progresso tecnologico.

| << |  <  |