Copertina
Autore Michael Crichton
Titolo Preda
EdizioneGarzanti, Milano, 2003, Narratori moderni , pag. 468, dim. 140x215x43 mm , Isbn 978-88-11-66503-8
OriginalePrey [2000]
TraduttoreGianni Pannofino
LettoreRenato di Stefano, 2003
Classe narrativa statunitense , fantascienza
PrimaPagina


al sito dell'editore


per l'acquisto su IBS.IT

per l'acquisto su BOL.IT

per l'acquisto su AMAZON.IT

 

| << |  <  |  >  | >> |

Indice

Introduzione.
Evoluzione artificiale nel XXI secolo    9

I   Casa                                19
II  Deserto                            141
III Nido                               315
IV  Preda                              379

Bibliografia                           463

 

 

| << |  <  |  >  | >> |

Pagina 9

INTRODUZIONE
EVOLUZIONE ARTIFICIALE NEL XXI SECOLO



L'idea secondo cui il mondo intorno a noi sarebbe in perpetua evoluzione è un luogo comune di cui raramente cogliamo le implicazioni più profonde. Di solito non si pensa, per esempio, al fatto che una malattia epidemica muta la sua forma a mano a mano che si diffonde, né ci sfiora l'idea che l'evoluzione di piante e animali possa aver luogo nel giro di qualche giorno o settimana, anche se questo è proprio ciò che avviene. In genere, non concepiamo la vegetazione che ci circonda come lo scenario di una continua e sofisticata guerra chimica, in cui le piante producono pesticidi per reagire all'attacco degli insetti, i quali, a loro volta, sviluppano nuove forme di resistenza. Tuttavia, è proprio quello che si verifica. Se cogliessimo la vera essenza della natura - se fossimo in grado di comprendere il vero significato dell'evoluzione - ci renderemmo conto di vivere in un mondo in cui ogni organismo vegetale, ogni insetto e ogni specie animale muta di continuo in risposta alle trasformazioni di tutti gli altri organismi viventi, vegetali e animali. Intere popolazioni di organismi si sviluppano, e poi decadono, si trasformano. Questo incessante e perpetuo mutare - inesorabile e inarrestabile quanto i moti ondosi e le maree - implica un mondo in cui qualsiasi intervento umano produce effetti necessariamente imprevedibili. Questo sistema, che nel suo insieme noi chiamiamo «biosfera», è così complicato da impedirci di prevedere le conseguenze di ciò che facciamo.! per questo che anche i più illuminati tentativi del passato hanno prodotto risultati indesiderabili, o a causa di una carente comprensione dei fenomeni, o perché il mondo in continuo mutamento ha reagito alle nostre azioni secondo modalità impreviste. In questa prospettiva, la storia della protezione dell'ambiente è scoraggiante quanto quella dell'inquinamento ambientale. Chiunque sostenga, per esempio, che la politica industriale di deforestazione sia più dannosa della politica ecologica di difesa dagli incendi ignora il fatto che entrambe queste politiche sono state portate avanti sulla base di convinzioni assolute, che hanno parimenti e irreversibilmente alterato le foreste vergini. In entrambi i casi si osserva chiaramente il segno dell'ostinato egoismo che caratterizza l'interazione umana con l'ambiente.

Il fatto che la biosfera risponda in modi imprevedibili alle nostre azioni non significa che si debba rinunciare ad agire. , però, un forte incentivo alla prudenza e all'adozione di un approccio sperimentale per quel che riguarda le nostre convinzioni e le iniziative che intraprendiamo. Purtroppo, in passato, la nostra specie ha mostrato una straordinaria mancanza di cautela, cosicché è difficile immaginare che in futuro ci si riesca a comportare diversamente.

Siamo - e siamo sempre stati - convinti di sapere quel che facciamo. E, a quanto pare, non siamo capaci di riconoscere di aver sbagliato né di poter nuovamente sbagliare. Piuttosto, ogni generazione attribuisce gli errori del passato a una carenza di pensiero imputabile a menti meno capaci, e con fiducia si imbarca in nuove imprese sbagliate.

Siamo una delle tre sole specie terrestri che possono considerarsi autocoscienti, ma nel caso degli umani una caratteristica ben più significativa potrebbe essere la capacità di illudersi.

| << |  <  |  >  | >> |

Pagina 17

mezzanotte. La casa è immersa nel buio. Non so come andrà a finire. I ragazzi stanno tutti malissimo e continuano a vomitare. Sento mio figlio e la mia figlia maggiore che vomitano in due bagni diversi. Sono andato poco fa a controllarli, per vedere che cosa tiravano su. Sono soprattutto preoccupato per la più piccola. Ho dovuto indurre il vomito anche a lei. E la sua sola speranza.

Io credo di stare bene, almeno per ora. Ma la prospettiva non è certo delle migliori: le persone coinvolte in questa storia sono quasi tutte morte, ormai. E troppe sono le cose su cui non posso avere certezze...

I macchinari sono stati distrutti, ma potrebbe essere ugualmente troppo tardi.

Sto aspettando Mae. andata al laboratorio di Palo Alto dodici ore fa. Spero che ce l'abbia fatta. Spero sia riuscita a spiegare quanto è disperata la situazione. Credevo che dal laboratorio qualcuno si sarebbe fatto sentire, ma ancora non ho ricevuto notizie.

Mi fischiano le orecchie, e non è certo un buon segno. Sento delle vibrazioni nel petto e nell'addome. La piccola più che vomitare, sta sputacchiando. Mi gira la testa. Spero di non perdere i sensi. I ragazzi hanno bisogno di me, soprattutto la piccola. Hanno paura. E non posso certo rimproverarli.

Anch'io ho paura. E pensare che una settimana fa il mio problema principale era quello di trovare un lavoro! Ora, invece, mi viene quasi da ridere. D'altra parte, le cose non vanno mai come ci si aspetta.

| << |  <  |  >  | >> |

Pagina 86

La videocamera procedeva nell'apparato circolatorio ed entrò nel cuore. Di nuovo, vidi che il fluido del sangue era praticamente incolore, e al suo interno rimbalzavano i globuli rossi. Julia commentava. Si sentiva l'audio del battito cardiaco. Sul tavolo, il paziente giaceva immobile, con l'antenna sopra il suo corpo.

«Stiamo uscendo dal ventricolo e poco oltre si può vedere l'aorta... E ora entreremo nel sistema arterioso...»

Si rivolse alla telecamera.

«Le immagini che avete visto sono fugaci, ma noi siamo in grado di far compiere questo ciclo alla videocamera per almeno mezz'ora e produrre immagini assai dettagliate di qualunque cosa ci interessi. Possiamo persino fermare la videocamera per mezzo di un forte campo magnetico. Quando abbiamo finito, possiamo deviare il sangue in un circuito endovenoso circondato da un forte campo magnetico e rimuovere così le particelle. Dopo di che il paziente può tornare a casa.»

La telecamera tornò a inquadrare Julia. «Questa tecnologia Xymos è sicura, affidabile ed estremamente facile da usare. Non richiede l'intervento di personale altamente specializzato: può essere fatta funzionare da una infermiera o da un semplice tecnico. Soltanto negli Stati Uniti muoiono ogni anno un milione di persone a causa di malattie vascolari. Più di trenta milioni sono affette da malattie cardiovascolari. Le prospettive commerciali per questa tecnologia sono molto favorevoli. Essendo assolutamente indolore, semplice e sicura, sostituirà le altre tecniche di produzione di immagini a scopi medici come la TAC e l'angiografia, per diventare ben presto una procedura standard. Noi commercializzeremo le videocamere nanotecnologiche, l'antenna e l'apparecchiatura video. Il costo previsto per un singolo test è di soli venti dollari, in confronto ai due o tremila dollari a esame di certe tecnologie genetiche attualmente in uso. Nonostante il prezzo così basso, prevediamo che i ricavi a livello mondiale supereranno nel primo anno i quattrocento milioni di dollari. E una volta che il procedimento si sarà diffuso, tale cifra risulterà triplicata. Stiamo dunque parlando di una tecnologia i cui ricavi ammontano a 1,2 miliardi di dollari all'anno. Ora, se ci sono domande...»

| << |  <  |  >  | >> |

Pagina 98

«Elaborazione distribuita» significa che il lavoro da svolgere viene suddiviso tra un certo numero di elaboratori o tra una rete di agenti virtuali creati all'interno del computer. Esistono diversi modi elementari per metterla in pratica. In un caso è possibile creare una popolazione assai numerosa di agenti pressoché stupidi e metterli a lavorare insieme per ottenere un determinato scopo, così come una colonia di formiche collabora per ottenere i propri scopi. Di lavori di questo tipo il mio gruppo ne aveva fatti in abbondanza.

Un altro metodo consiste nel creare una cosiddetta «rete neurale» ispirata alla rete dei neuroni presente nel cervello umano. Si è osservato che persino le reti neurali più semplici risultano dotate di un potere sorprendente: queste reti sono capaci di apprendere. Riescono a far tesoro delle esperienze passate. E anche in questo campo avevamo lavorato non poco.

Una terza tecnica consisteva nel creare dei geni virtuali all'interno del computer per poi lasciarli evolvere in un mondo virtuale fino al conseguimento di un determinato scopo. Oltre a queste, però, c'erano svariate altre procedure. Nel loro insieme queste tecniche rappresentavano un enorme cambiamento rispetto alla vecchia nozione di intelligenza artificiale, o AI. Un tempo i programmatori cercavano di formulare regole capaci di tener conto di ogni situazione. Per esempio, tentavano di insegnare ai computer che chiunque acquistasse qualcosa in un negozio doveva pagare la merce prima di andarsene. Tuttavia, questo principio così elementare si rivelò assai difficile da tradurre in linee di codice. Il computer commetteva errori. A quel punto, venivano introdotte nuove regole per evitare questi errori, ma ciò ne produceva di nuovi, a cui faceva seguito l'introduzione di ulteriori regole. Alla fine, i programmi diventavano giganteschi, composti da migliaia di linee, e cominciavano a dare problemi a causa della loro stessa complessità. Erano troppo grandi per poter essere corretti: era troppo difficile capire da che cosa dipendessero gli errori.

Dunque, parve diffondersi la convinzione che l'intelligenza artificiale fondata sulle regole non avrebbe mai funzionato. Un mucchio di persone cominciò a fare inquietanti previsioni sulla fine dell'intelligenza artificiale. Gli anni Ottanta furono un'epoca d'oro per tutti quei professori inglesi secondo cui i computer non sarebbero mai riusciti a eguagliare l'intelligenza umana.

Le reti di agenti distribuite, però, consentivano un approccio interamente nuovo, e anche la filosofia sottostante alla programmazione fu rinnovata. La vecchia programmazione fondata sulle regole procedeva dall'alto verso il basso: era al sistema nel suo insieme che venivano prescritte regole di comportamento.

La nuova programmazione, invece, procede dal basso verso l'alto: il programma definisce il comportamento dei singoli agenti al livello strutturale più basso, ma il comportamento del sistema nel suo insieme non viene definito ed emerge, invece, come risultato di centinaia di piccole interazioni che si verificano a un livello inferiore. Poiché il sistema non viene programmato ne possono derivare risultati sorprendenti. Risultati che non possono essere mai previsti dai programmatori. Per questo tali programmi possono sembrare «simili a esseri viventi». E sempre questa è la ragione per cui questo settore è così «caldo»...

| << |  <  |  >  | >> |

Pagina 108

Io non sono affatto passivo. Riflessivo, piuttosto. Ellen, invece, è molto energica: ha il carattere ideale per fare la psicologa, perché adora spiegare alle persone come devono comportarsi. A dire il vero, io la trovo un po' invadente. E lei mi considera passivo.

Ecco cosa pensa Ellen di me: mi sono iscritto a Stanford alla fine degli anni Settanta e ho studiato biologia delle popolazioni animali, disciplina puramente accademica, priva di applicazioni pratiche e di sbocchi lavorativi fuori dall'università. In quegli anni, la biologia delle popolazioni era in una fase di sviluppo impetuoso, grazie agli studi sistematici sugli animali e ai progressi nel campo della genetica. Entrambi questi sviluppi si fondavano sull'analisi computerizzata e sull'utilizzo di algoritmi matematici, ma io non riuscivo a trovare i programmi di cui avevo bisogno per le mie ricerche. Così avevo cominciato a scriverli da me, finendo per interessarmi sempre più all'informatica, altra disciplina puramente accademica e un po' da fissati.

Tuttavia, mi sono laureato proprio nel periodo della nascita della Silicon Valley, in coincidenza con il boom del personal computer. Negli anni Ottanta, un certo numero di impiegati delle neonate aziende informatiche ha cominciato a guadagnare cifre consistenti, e così è accaduto anche a me, nella prima ditta in cui ho trovato lavoro. Ho conosciuto Julia, l'ho sposata e abbiamo avuto i bambini. Tutto è filato liscio. Ce la siamo cavata a meraviglia, e per trovare lavoro bastava solo che ci presentassimo. Dopo di che sono stato assunto da un'altra ditta, che mi ha garantito maggiori benefit e opportunità. Io mi sono limitato a cavalcare l'onda fino ad anni Novanta inoltrati e a quel punto ho smesso di programmare, per mettermi a lavorare come supervisore allo sviluppo di software. Le cose, insomma, si sono sistemate da sole, senza particolari sforzi da parte mia né difficili prove da superare.

così che mi vedeva Ellen. La mia visione di me, invece, è diversa. Le società della Silicon Valley erano luoghi caratterizzati dallo spirito di competizione più aspro mai registrato nella storia del pianeta. Si lavorava cento ore alla settimana. Tutti correvano come forsennati, allo scopo di ridurre i tempi di perfezionamento di nuovi prodotti. In origine ci volevano tre anni per sviluppare un nuovo prodotto o una nuova versione. Dopo un po' si passò a due; poi, a un anno e mezzo; e infine a soli dodici mesi... Una nuova versione all'anno. Se si considera che per passare dalla versione di prova alla versione definitiva servono almeno quattro mesi, per la produzione vera e propria restavano soltanto otto mesi. Otto mesi per scrivere e rivedere milioni di linee di codice e accertarsi che tutto funzionasse.

Insomma, la Silicon Valley non era di sicuro un posto per persone passive, e io non rientro certo tra queste: mi ero fatto il culo tutti i santi giorni, in ogni minuto. Avevo dovuto dare continuamente prova delle mie capacità; se non ci fossi riuscito, sarei rimasto a piedi.

Ecco com'erano andate le cose, secondo me. E non avevo dubbi, al riguardo.

| << |  <  |  >  | >> |

Pagina 110

I programmi basati su agenti modellati sull'esempio delle popolazioni biologiche assumevano un'importanza crescente nel mondo reale. Come, per esempio, quei miei programmi che simulano l'approvvigionamento di cibo delle formiche utilizzati per gestire il traffico delle grandi reti di comunicazione. O quelli che si ispirano alla divisione del lavoro nelle colonie di termiti per controllare i termostati all'interno dei grattacieli. O, ancora, quei programmi che imitano la selezione genetica, impiegati in un gran numero di settori: in un caso, per esempio, ai testimoni di un crimine venivano mostrati nove volti diversi e veniva chiesto loro di scegliere il più somigliante a quello del criminale, anche se nessuno di quei volti era quello giusto; dopo di che il programma mostrava loro altri nove volti, tra i quali i testimoni dovevano nuovamente scegliere; ripetendo questa operazione svariate volte, il programma riusciva a poco a poco ad avvicinarsi con sempre maggiore precisione al volto del vero criminale, meglio di qualsiasi esperto di identikit a disposizione della polizia. I testimoni non erano mai tenuti a spiegare in che cosa i volti da loro scelti corrispondessero a quello del criminale: dovevano semplicemente scegliere, e il programma procedeva.

E poi c'erano le aziende del biotech, che avevano scoperto di non poter progettare con successo nuove proteine, perché queste tendevano ad assumere strane pieghe. Di conseguenza, per studiare l'«evoluzione» delle nuove proteine avevano adottato i programmi fondati sulla selezione genetica, e nel giro di qualche anno tutti questi procedimenti erano diventati la norma. E risultavano sempre più potenti e importanti.

Era vero, quindi, che mi ero trovato nel posto giusto al momento giusto, ma non ero stato passivo: ero stato fortunato, semmai.

| << |  <  |  >  | >> |

Pagina 112

Per molto tempo, nel campo dell'intelligenza artificiale, ci si è interrogati sulla possibilità che un programma abbia coscienza di sé. La maggior parte dei programmatori dirà che questa possibilità non esiste: in molti hanno cercato di dimostrare il contrario e hanno fallito.

Esiste, però, una formulazione più radicale del problema, una questione filosofica relativa alla possibilità che una qualsiasi macchina comprenda il proprio funzionamento. Anche in questo caso, vi è chi sostiene che ciò sarebbe impossibile: la macchina non può conoscersi per la stessa ragione per cui è impossibile mordersi i denti. Ed effettivamente ciò appare impossibile: il cervello umano, che è la struttura più complicata dell'universo conosciuto, sa ancora molto poco di sé stesso.

Negli ultimi trent'anni ci si è divertiti a interrogarsi su questi problemi davanti a un bicchiere di birra il venerdì sera dopo il lavoro, ma non sono mai stati affrontati seriamente. Di recente, però, tali questioni filosofiche hanno acquisito una rinnovata importanza a seguito dei rapidi progressi ottenuti nel campo della riproduzione di certe funzioni cerebrali. Non del cervello nel suo insieme, bensì solo di certe sue funzioni. Prima che mi licenziassero, per esempio, il gruppo da me diretto stava utilizzando l'elaborazione multiagente per consentire ai computer di imparare, di riconoscere determinati modelli all'interno dei dati analizzati, di comprendere linguaggi naturali, di stabilire priorità e di scambiarsi i compiti da svolgere. La cosa più importante di questi programmi consisteva nel fatto che le macchine imparavano davvero. Le loro prestazioni miglioravano con l'esperienza, la qual cosa per certi esseri umani risulta del tutto impossibile.

| << |  <  |  >  | >> |

Pagina 118

Avevo appena deciso di andarmene, quando il cellulare che avevo in mano si mise a squillare. Lo aprii e scoprii che si trattava di Tim Bergman, il tizio che mi aveva sostituito alla MediaTronics.

«Sei seduto?», mi disse.

«No, perché?»

«Ho notizie piuttosto strane da darti. Tieniti forte.»

«Okay...»

«Don mi ha chiesto di telefonarti.»

Don Gross era il capo della ditta, quello che mi aveva licenziato. «Per quale motivo?»

«Vuole riprenderti a lavorare.»

«Che cosa?»

«Sì, lo so: è pazzesco. Però vuole assumerti di nuovo.»

«Perché?», domandai.

«Abbiamo dei problemi con dei sistemi distribuiti che abbiamo venduto.»

«Quali sistemi?»

«Be', con il PREDPREY, fondamentalmente.»

«Ma quello è uno dei sistemi vecchi», dissi io. «A chi è venuto in mente di venderlo?» Il PREDPREY era un sistema che avevamo creato più di un anno prima. Come la maggior parte dei nostri programmi era stato creato sulla base di modelli biologici: era un programma che funzionava secondo la dinamica predatore/preda. La sua struttura, però, era estremamente semplice.

«Be', la Xymos voleva qualcosa di molto semplice», disse Tim.

«Avete venduto il PREDPREY alla Xymos?»

«Esatto. Anzi, gliel'abbiamo dato in concessione, con un contratto di assistenza. E adesso stiamo impazzendo.»

«Perché?»

«Perché a quanto pare non funziona bene. La funzione di orientamento allo scopo è andata a farsi friggere. In molti casi il programma sembra perdere completamente di vista la sua finalità.»

«Non mi stupisce affatto», dissi io. «Non c'erano i "rafforzatori".» I rafforzatori sono una sorta di contrappeso che serve al programma per non perdere di vista il proprio obiettivo. La loro utilità si spiegava con il fatto che gli agenti operanti in rete, avendo la capacità di apprendere, potevano in qualche caso deviare dal fine per essi prestabilito: occorreva un modo per memorizzare la loro finalità originaria affinché non andasse perduta. Di fatto, questi programmi basati su agenti sono per molti versi paragonabili ai bambini: era facile che dimenticassero le cose, le perdessero, le facessero cadere.

| << |  <  |  >  | >> |

Pagina 181

Quei fusti nella stanza adiacente erano, in effetti, serbatoi per la coltura microbica controllata. Ricky, però, non produceva birra, bensì microbi, e io non avevo dubbi su quale fosse lo scopo di quel procedimento. Impossibilitata a costruire nanoassemblatori veri e propri, la Xymos faceva ricorso ai batteri per produrre le molecole di cui aveva bisogno.

Quella era ingegneria genetica, non nanotecnologia. «Be', non esattamente», obiettò Ricky, quando gli spiegai quel che pensavo. «Non posso negare, però, che utilizziamo una tecnologia ibrida. Non credo che sia poi così sorprendente, però. O mi sbaglio?»

Era vero. Da una decina di anni almeno, gli studiosi prevedevano che ingegneria genetica, programmazione di computer e nanotecnologie avrebbero finito per fondersi, dato che, in fondo, svolgevano attività simili e correlate. Non c'era poi così tanta differenza tra l'utilizzo di un computer per decodificare parte del genoma di un batterio o per inserire nuovi geni all'interno degli stessi batteri al fine di produrre nuove proteine. Né la creazione di nuovi batteri per produrre, per esempio, molecole di insulina era un'operazione tanto diversa dalla realizzazione di assemblatori meccanici artificiali per creare nuove molecole. Avveniva tutto a livello molecolare. L'obiettivo era sempre quello di asservire sistemi estremamente complessi a finalità progettuali umane. E che cos'è la progettazione molecolare se non un'operazione complicatissima?

Si può immaginare una molecola come una serie di atomi messi insieme uno con l'altro come si fa con i cubetti di Lego. Quest'immagine, però, è fuorviante. A differenza dei cubetti di Lego, gli atomi non possono essere composti a piacere. Un atomo introdotto in una composizione è soggetto a forze locali potentissime - magnetiche e chimiche - con risultati spesso indesiderati. L'atomo può essere sospinto fuori dalla posizione assegnatagli, oppure rimanere lì dov'è stato messo, ma con un orientamento diverso. Può addirittura causare una sorta di attorcigliamento dell'intera molecola.

Per queste ragioni, la produzione molecolare è un esercizio nel campo dell'arte del possibile, un tentativo di sostituire atomi o gruppi di atomi per creare strutture equivalenti in grado di funzionare nel modo desiderato. In presenza di tutte queste difficoltà, risulta impossibile ignorare che esistono già fabbriche molecolari in grado di produrre un gran numero di molecole: queste fabbriche sono le cellule.

«Purtroppo, però, la produzione per mezzo di cellule può giungere solo fino a un certo punto», disse Ricky. «Noi raccogliamo le molecole-base - la materia prima dopo di che le elaboriamo con procedure nanotecnologiche. Quindi, facciamo un po' entrambe le cose.»

Indicando i serbatoi, domandai: «Che tipo di colture cellulari state utilizzando?»

«Theta-d 5972», rispose Ricky.

«Sarebbe a dire?»

«Una variante dell' Escherichia coli.»

| << |  <  |  >  | >> |

Pagina 240

possibile osservare proprio questo tipo di accelerazione anche nel campo dell'evoluzione della vita sulla Terra. Le prime forme di vita si manifestarono quattro miliardi di anni fa come organismi unicellulari. Nei due miliardi di anni successivi non cambiò nulla, ma poi nelle cellule comparvero i nuclei, e le cose cominciarono a procedere più rapidamente. Poche centinaia di milioni di anni dopo, comparvero i primi organismi pluricellulari e, trascorso qualche altro milione di anni, si ebbe l'esplosione della biodiversità che è proseguita a lungo finché, un paio di centinaia di milioni di anni fa, si svilupparono sul pianeta grosse piante, animali, creature complesse e i dinosauri. In tutto questo processo, l'uomo non è che l'ultimo arrivato: quattro milioni di anni fa comparvero le scimmie; due milioni di anni fa i primi antenati dell'uomo; a trentacinquemila anni fa, invece, risalgono i graffiti sulle pareti nelle caverne.

L'accelerazione fu notevolissima. Se tutta la storia della vita sulla Terra venisse proiettata su un arco di ventiquattro ore, gli organismi pluricellulari comparirebbero solo nella seconda metà dell'intervallo considerato; i dinosauri nell'ultima ora; i primi uomini negli ultimi quaranta secondi; e l'uomo attuale, infine, solo un secondo fa.

C'erano voluti due miliardi di anni perché le cellule primitive sviluppassero un nucleo, che rappresenta il primo passo in direzione della complessità, ma erano bastati duecento milioni di anni - ossia un decimo di quel tempo - per l'evoluzione di organismi pluricellulari. Dopo di che erano serviti soltanto quattro milioni di anni per il passaggio dalle scimmie, dotate di piccoli cervelli e capaci di utilizzare le ossa come utensili, all'uomo moderno e all'ingegneria genetica. Tale era stata l'accelerazione del ritmo evolutivo.

Lo stesso schema si può applicare al comportamento dei sistemi basati su agenti. Ci è voluto molto tempo perché gli agenti «gettassero le fondamenta» e raggiungessero i primi traguardi, ma una volta che questi sono stati raggiunti, i successivi progressi risultano estremamente rapidi. Non c'era modo di saltare la fase preparatoria, così com'è impossibile per un essere umano saltare la fase dell'infanzia. Il lavoro preparatorio dev'essere comunque svolto.

Allo stesso tempo, però, non c'è modo di evitare la successiva accelerazione. Questa è, per così dire, incorporata nel sistema.

L'insegnamento rende questi progressi più efficienti, e io ero ormai certo che gli insegnamenti di Julia avessero svolto una funzione importantissima nello sviluppo del comportamento di quegli sciami. Semplicemente interagendo con essi, lei aveva introdotto una pressione selettiva all'interno di un organismo dal comportamento emergente imprevedibile. Era stata un'idea davvero stupida.

Lo sciame - che già si stava sviluppando rapidamente si sarebbe sviluppato in futuro a una velocità ancora maggiore. E poiché si trattava di un organismo prodotto dall'uomo, l'evoluzione non avveniva secondo tempi biologici, bensì - come appariva ormai evidente - nell'arco di poche ore.

La distruzione di quegli sciami diventava, di ora in ora, più difficile.

| << |  <  |  >  | >> |

Pagina 324

Se si considera che la teoria dell'evoluzione viene studiata da centocinquant'anni, è sorprendente quanto poco se ne sappia. Le vecchie concezioni sulla sopravvivenza del più adatto sono state abbandonate già da molto tempo. Tali concezioni erano troppo semplicistiche. I pensatori del XIX secolo fondarono sull'evoluzione vista come «la forza della natura nei denti e negli artigli» una concezione del mondo, in cui gli animali più forti uccidono quelli più deboli. Non tennero conto del fatto che i più deboli diventano sempre, prima o poi, più forti o reagiscono in qualche altro modo cosa che, del resto, fanno sempre.

Nuove teorie, però, cominciarono a sottolineare l'importanza dell'interazione tra forme di vita in continua evoluzione. Vi era chi assimilava l'evoluzione a una corsa agli armamenti, intendendo con ciò un'interazione fondata su una escalation senza soluzione di continuità. Una pianta attaccata da un parassita sviluppa un pesticida nelle sue foglie. Il parassita sviluppa resistenze a quel particolare pesticida, inducendo nella pianta la produzione di un pesticida ancora più potente, e così via.

Altri diedero il nome di «coevoluzione» a questo schema che vede due o più forme di vita evolversi l'una in rapporto all'altra, sviluppando una reciproca tolleranza. così che una pianta attaccata dalle formiche evolve una capacità di tolleranza nei confronti delle formiche, fino al punto di produrre, in alcuni casi, nutrimento per le formiche sulla superficie delle foglie. In cambio, le formiche residenti proteggono la pianta, pungendo eventuali animali intenzionati a mangiare le foglie. In breve, né questa pianta né la formica sono più in grado di sopravvivere l'una in assenza dell'altra.

Questo schema ha una tale importanza che molti hanno cominciato a considerarlo il vero nucleo fondamentale dell'evoluzione. Il parassitismo e la simbiosi, in quest'ottica, diventano la vera base del mutamento evolutivo. Questi processi sono il fondamento primo dell'evoluzione e l'hanno improntata sin dalle più remote origini. Lynn Margulies è famosa per aver dimostrato che i batteri hanno creato i primi nuclei cellulari inghiottendo altri batteri.

Agli albori del XXI secolo, poi, si è giunti a vedere chiaramente come la coevoluzione non si limiti solo a coppie di creature impegnate in una sorta di danza vorticosa ma isolata. Vi sono sistemi coevolutivi formati da tre, dieci, n forme di vita, con n uguale a un qualsiasi numero scelto a piacere. Un campo di grano contiene molte varietà di piante, ha subìto l'attacco di molti parassiti diversi e ha sviluppato molte difese. Le piante sono in competizione con le erbacce; i parassiti con altri parassiti; altri animali, più grossi, mangiano piante e parassiti... Il risultato di questa complessa interazione è in continuo cambiamento, in continua evoluzione.

Il che è, per definizione, imprevedibile.

Era questa, in fondo, la ragione per cui ero furioso con Ricky.

| << |  <  |  >  | >> |

Pagina 336

Volendo, si potrebbe anche pensare all'essere umano come a un gigantesco sciame o, per meglio dire, a uno sciame di sciami, perché ogni parte dell'organismo sangue, fegato, reni - è uno sciame a sé. Quello che noi siamo soliti chiamare «corpo» è, in realtà, una combinazione di tutti questi sciami-organo.

Noi crediamo che il nostro corpo sia solido, ma solo perché non siamo in grado di vedere quello che avviene a livello cellulare. Se si potesse ingrandire il corpo umano, gonfiarlo fino a fargli raggiungere dimensioni stratosferiche, noi non vedremmo altro che una massa turbinante di cellule e atomi raggruppati intorno a nuclei ancora più piccoli di cellule e atomi.

«Sì, ma chissenefrega?», direte voi. Ebbene, ciò che si vuole affermare, qui, è che gran parte dell'elaborazione avviene a livello degli organi. Il comportamento umano si determina, contemporaneamente, in molti luoghi diversi all'interno del corpo. Il controllo del nostro comportamento non si esercita solo a livello cerebrale, bensì emerge da tutto il corpo.

Si può giungere ad affermare che il modello dell'«intelligenza a sciame» si applichi anche agli esseri umani. L'equilibrio è regolato dallo sciame del cervelletto, e raramente questa funzione emerge a livello della coscienza. Altre elaborazioni avvengono nella colonna vertebrale, nello stomaco, nell'intestino. I bulbi oculari, inoltre, incamerano molto materiale visivo ben prima che il cervello intervenga.

Se è per questo, poi, anche molte operazioni cerebrali assai sofisticate avvengono al di sotto del livello della coscienza. Uno degli esempi più banali è quello della capacità di evitare gli oggetti sulla nostra traiettoria. Un robot semovente deve elaborare una quantità di dati spaventosa per evitare gli ostacoli che incontra nell'ambiente. Lo stesso discorso vale per gli esseri umani, solo che noi non ce ne rendiamo conto... finché non si spengono le luci. A quel punto è con dolore che impariamo quanto sforzo di elaborazione, in realtà, ci voglia!

Vi è chi sostiene, perciò, che l'intera struttura della coscienza - insieme al senso di autocontrollo e di autodeterminazione tipicamente umano - sia una mera illusione dell'utente. Noi non siamo affatto in grado di controllare coscientemente noi stessi, anche se preferiamo pensare il contrario.

Il solo fatto che gli esseri umani vadano in giro pensandosi in termini di «Io» non significa che questo Io esista davvero. Del resto, per quel che ne sapevamo, anche quel maledetto sciame poteva disporre di una qualche forma rudimentale di autocoscienza. E, in caso contrario, avrebbe comunque potuto svilupparla molto presto.

| << |  <  |  >  | >> |

Pagina 354

Da questo punto di vista, è difficile credere che creature estremamente stupide, dotate di cervelli più piccoli di capocchie di spillo, siano in grado di concepire progetti più complicati di quelli umani. Eppure, era proprio così.

Le termiti africane sono l'esempio più classico. Questi insetti creano cumuli di terra, simili a castelli, con un diametro alla base di trenta metri e spire ascendenti alte fino a sei metri. Per apprezzare la loro impresa occorre tenere presente che, se le termiti fossero grandi come esseri umani, i loro termitai sarebbero grattacieli alti più di un chilometro e mezzo per un diametro di otto chilometri. Come i grattacieli, poi, i termitai sono caratterizzati da un'intricatissima architettura interna atta a favorire l'afflusso di aria fresca e l'espulsione dell'anidride carbonica e del calore in eccesso. Al loro interno possiedono veri e propri orti, dove vengono coltivati i funghi di cui questi insetti si nutrono, oltre alle residenze reali e a spazi che possono accogliere talvolta anche due milioni di individui. E non esistono due termitai perfettamente uguali: ogni esemplare viene costruito in base alle specifiche condizioni del sito in cui sorge.

E questo in assenza di qualsivoglia architetto, capomastro o altra autorità centrale. Per non parlare del fatto che le termiti non risultano geneticamente programmate per la realizzazione di simili imprese. Queste enormi costruzioni, all'opposto, sono il frutto dell'applicazione di regole relativamente semplici nel rapporto tra le termiti (per esempio: «Se senti che di qui è passata un'altra termite, aggiungi una pallina di terra in questo punto»). Eppure, il risultato finale poteva facilmente essere ritenuto più complesso di qualsiasi creazione umana.

| << |  <  |