Copertina
Autore Francesca Bertacchini
CoautoreEleonora Bilotta, Pietro Pantano
Titolo Il caos è semplice e tutti possono capirlo
EdizioneMuzzio, Monte San Pietro (BO), 2009, Scienza , pag. 206, ill., cop.fle., dim. 14x21x1,5 cm , Isbn 978-88-96159-16-3
LettoreRenato di Stefano, 2010
Classe scienze tecniche , matematica
PrimaPagina


al sito dell'editore


per l'acquisto su IBS.IT

per l'acquisto su BOL.IT

per l'acquisto su AMAZON.IT

 

| << |  <  |  >  | >> |

Indice


1. La genesi del circuito di Chua                 7

2. Il paradigma                                  17

3. La potenza creatrice del caos                 37

4. Complessità ed emergenza                      63

5. Caos e arte                                   89

6. Musica e suoni dal caos                      115

7. Il mondo delle reti                          141

8. Il caos è semplice e tutti possono capirlo   167


Tavole I-XVI

Appendice 1. Intervista al professor Leon Chua  181
Appendice 2. Costruzione del circuito           189
Appendice 3. Bibliografia ragionata             197

Indice analitico                                203


 

 

| << |  <  |  >  | >> |

Pagina 7

1. La genesi del circuito di Chua


La storia del circuito di Chua inizia nel 1983 presso l'università di Waseda a Tokyo. In un angolo del laboratorio di elettronica del professor Matsumoto, un giovane ma già affermato scienziato, Leon Chua, è testimone, insieme ad altri colleghi, del primo esperimento al mondo che dimostra l'esistenza sperimentale del caos. Il gruppo del professor Matsumoto, lavorando per un anno intero, è riuscito a costruire un circuito che implementi le equazioni di Lorenz, per dimostrare che il caos non è frutto di astrazioni matematiche, ma può essere effettivamente osservato in laboratorio. Il professor Chua si appresta ad assistere dal vivo alla prima dimostrazione circuitale delle equazioni che il grande metereologo Lorenz aveva scoperto circa vent'anni prima. La costruzione circuitale è molto ben realizzata. Fanno bella mostra di sé almeno una dozzina di componenti e altri sofisticati strumenti, utilizzati per poter effettuare fini controlli sui vari parametri del sistema; i collegamenti tra gli elementi circuitali sono poi stati costruiti con accuratezza e precisione: l'ineffabile essenza del caos non sarebbe più sfuggita alla verifica sperimentale e alla sua riproducibilità. Ancora una volta l'uomo avrebbe vinto la partita, nell'eterno gioco con la Natura, realizzato attraverso una fitta rete di indizi e di correlate scoperte, che nel corso della storia dell'evoluzione del pensiero, si erano succedute. Già Lorenz aveva individuato un tassello del puzzle attraverso il quale si esprime la natura caotica degli eventi atmosferici, che aveva immortalato nelle equazioni che producono l'attrattore strano, noto come farfalla di Lorenz. Ma la sua era solo una simulazione che girava su un computer. Gli ingegneri, e in particolare gli ingegneri elettronici, non consideravano affatto il caos come degno di nota per i loro studi, pur avendo il fenomeno attratto l'attenzione di matematici e fisici. La mancanza di strumenti che fornissero prima di tutto una dimostrazione sperimentale e la sua riproducibilità, rendeva il fenomeno di scarso interesse applicativo. L'esperimento messo a punto nel laboratorio del professor Matsumoto doveva finalmente ribaltare la situazione, dare al caos il riconoscimento sperimentale che gli spettava, costruendo un circuito che potesse dimostrarlo.

L'esperimento però fallisce miseramente, gettando nella costernazione gli scienziati presenti nel laboratorio. La stessa notte, Leon Chua è ancora sveglio per la cocente delusione e con negli occhi le vivide immagini dell'esperimento fallito. Secondo il professor Chua, non erano state le capacità del gruppo di Matsumoto a far fallire l'esperimento, ma altre variabili. A quel tempo, gli unici sistemi caotici conosciuti sono le equazioni di Lorenz e le equazioni di Rossler. Chua si accorge che entrambi i sistemi presentano non meno di due punti di equilibrio instabile (tre punti nel sistema di Lorenz e due nel sistema di Rossler). Leon Chua intuisce che la costruzione di uno strumento che riproduca il comportamento caotico deve per forza avere caratteristiche analoghe. Non pensa più al circuito di Lorenz-Matsumoto, ma concepisce un nuovo circuito, che presenti almeno due punti di equilibrio instabile. Chua (1992) sostiene: "Avendo identificato questo approccio alternativo e una nuova strategia, enumerare sistematicamente tutti i circuiti candidati con tali caratteristiche, diventa un semplice esercizio di teoria elementare dei circuiti non lineari, arrivando alla conclusione che, avendo eliminato sistematicamente quelli che, per una ragione o per l'altra non sono caotici, solo otto circuiti fra tutti hanno le caratteristiche desiderate". Nella ricostruzione aneddotica che Leon Chua ci riporta, egli parla della sua scoperta come la soluzione di un problema banale, dovuta semplicemente ad almeno due decenni di frequentazioni con l'elettronica non lineare. In realtà, si tratta di una ristrutturazione cognitiva del problema, che permette la realizzazione di nuove soluzioni. Chua infatti ricostruisce lo spazio delle possibili soluzioni, completa le informazioni mancanti e scopre rapporti essenziali, che gli consentono, non di risolvere il problema del circuito Lorenz-Matsumoto, ma di costruire un nuovo circuito, con un nuovo elemento noto attualmente come "diodo di Chua".

Ma com'è fatto questo sorprendente elemento che ci ha permesso di visualizzare fisicamente il caos? Se analizziamo un elemento capace di condurre corrente (il più comune è il resistore) e applichiamo ai suoi estremi una differenza di potenziale (per esempio lo colleghiamo ai due poli di una pila), possiamo osservare, attraverso degli apposti strumenti, che in esso passa corrente. La cosa interessante è che maggiore è la differenza di potenziale posta ai due estremi, maggiore è la corrente che passa nel circuito. In questo senso si dice che l'elemento circuitale è lineare (Figura 1.1a). Nel caso del diodo di Chua (Figura 1.1 b) invece la curva caratteristica assume la forma di una spezzata (è composta da segmenti diversi) e, per questo, si dice che è lineare a tratti. Inoltre, il verso della corrente è opposto a quello che dovrebbe essere (invece di crescere da sinistra verso destra, come nel caso del resistore, decresce) e per farlo funzionare occorre che abbia una sorgente di energia. Pertanto il nuovo elemento deve essere attivo, cioè capace di fornire energia al sistema.

Ma torniamo nuovamente al racconto di Chua: "L'intero processo di enumerazione e di eliminazione fu eseguito in meno di un'ora, nella forma di un diagramma circuitale quasi illeggibile che io ho appuntato su tovaglioli di carta e i lati non usati di alcune buste. Dovetti ricorrere a tali espedienti in quanto non potei trovare carta a quell'ora tarda, nel dormitorio presso il quale ero arrivato solo la notte prima". Nella Figura 1.2 è illustrato il circuito che Chua ha disegnato quella famosa notte della nascita dello strumento attraverso il quale si è dimostrato sperimentalmente il caos. Il diagramma è composto da 4 elementi circuitali lineari passivi (un resistore R, 2 capacitori C1 e C2 e un induttore L) e il nuovo elemento attivo, il diodo di Chua, indicato con NR. Il circuito è geniale nella sua semplicità. Nel 2008 è stato ulteriormente semplificato, attraverso l'eliminazione di un elemento passivo e una nuova configurazione della rete.

Dopo la notte insonne, Chua mostra il suo diagramma al professor Matsumoto, che manifesta grande interesse per lo schema circuitale. La scoperta scientifica è così raccontata dall'autore: "Matsumoto immediatamente programmò le equazioni del circuito nel suo computer. Dopo ciò, fortemente eccitato, egli arrivò correndo nel mio studio e in modo giubilante annunciò che aveva trovato un attrattore strano! L'eccitazione di Matsumoto fu come quella di un bambino che per la prima volta entra in una piscina, in quanto egli non aveva mai avuto esperienza con circuiti a dinamica non lineare a tratti, né con oscillazioni non lineari, ma conosceva solo attrattori strani".

| << |  <  |  >  | >> |

Pagina 17

2. Il paradigma


Il meccanicismo

Da Newton in poi, si pensava che il mondo fùnzionasse come un perfetto meccanismo, come se fosse un orologio che scandiva il tempo della vita di ogni soggetto e del mondo stesso. Lo studio della meccanica come scienza sperimentale, inventata alla fine del XVII secolo da Newton, e perfezionata e completata da Eulero, Lagrange e Laplace nel XVIII secolo, ha dominato la scienza dell'epoca e delle epoche successive, influenzando non solo la visione del mondo di quel tempo, ma anche il modo in cui esso veniva rappresentato. Il meccanicismo, supportato dagli strumenti matematici del calcolo differenziale e integrale, inventato contemporaneamente da Newton e Leibniz, corroborato dalle evidenze sperimentali fornite dalla meccanica celeste e dal quadro unificante delle leggi di Newton, portarono gli studiosi a concludere che ogni evento accade per una causa o in modo causale per una catena di eventi. La diretta conseguenza filosofica del determinismo causale è che, in linea teorica, conoscendo le cause che hanno definito un evento, si possono conoscere gli eventi successivi, purché siano note le configurazioni iniziali.

Nel XIX secolo, gli studi sull'evoluzione di Darwin e l'avvento delle teorie termodinamiche – con particolare riferimento al concetto di entropia e all'irreversibilità di molti fenomeni, legati sia alla vita che ai cambiamenti delle forme di energia – promuovono l'idea che il meccanicismo non sia in grado di spiegare la complessità dei fenomeni fisici e si riveli largamente deficitario nella spiegazione dei fenomeni legati alla vita. Fino agli anni '60 del secolo scorso, la meccanica newtoniana, pur avendo perduto la sua centralità a causa delle due grandi teorie del XX secolo (la meccanica quantistica e la teoria della relatività generale che si occupano rispettivamente dell'infinitamente piccolo e dell'infinitamente grande) rimaneva ancora un'ottima descrizione dei fenomeni comunemente osservabili.

Invece, il mondo contiene molti fenomeni dinamici complessi che gli uomini sono incapaci di spiegare. Questa inadeguatezza viene di solito indicata con la parola greca caos. In termini cognitivi, il caos identifica un'incapacità generale di comprensione, un limite che non riusciamo a superare e che ci appare oscuro, inafferrabile, un orizzonte che impedisce l'osservazione. Infatti nell'antica Grecia il termine caos veniva usato in antitesi alla parola cosmos, che vuol dire ordine. Il caos identifica invece disordine, confusione, scompiglio e persino agitazione. L'uso del termine caos nella scienza contemporanea ha avuto, in questi ultimi anni, un capovolgimento semantico. Si usa riferirsi a fenomeni caotici e al caos deterministico rispetto al sistema di riferimento precedente – la meccanica newtoniana. È difficile fare una previsione di un evento caotico, capire la sua natura e le leggi che lo regolano, come succede invece nel mondo newtoniano, che ha una conoscenza infinita delle dinamiche celesti. Nella scienza contemporanea, di conseguenza, il caos identifica una serie di fenomeni fisici, sociali, economici, psicologici, il cui comportamento non è descrivibile in modo analitico e il settore attira sia ricercatori sia persone curiose, desiderose di informarsi sull'argomento. La teoria del caos è uno dei paradigmi forti e dominanti nel panorama della scienza contemporanea.

| << |  <  |  >  | >> |

Pagina 19

L'avvento del caos

Nei primi anni '60 del XX secolo, in un centro di ricerca americano per le osservazioni meteorologiche (presso il Massachusetts Institute of Technology, a Cambridge, Massachusetts), avviene un avvenimento del tutto casuale, grazie a cui il termine "caos" entra a far parte del linguaggio scientifico. Edward H. Lorenz, come molti altri meteorologi prima di lui, stava cercando di costruire modelli per la previsione del tempo. Partendo da un set assai complesso di equazioni differenziali, relative ai fluidi che regolano i fenomeni meteorologici, costruisce un modello matematico, basato su solo tre equazioni differenziali ordinarie, alcune delle quali presentano termini non lineari. Non esistendo a quei tempi tecniche matematiche in grado di risolvere queste equazioni, Lorenz utilizza un computer e durante la simulazione fa una scoperta inaspettata. A differenza delle equazioni lineari, le equazioni non lineari possono essere risolte analiticamente solo in rari casi. Per cui, devono essere integrate in forma approssimata attraverso processi iterativi, utilizzando il computer, Questo modo di procedere appartiene alle metodiche dell'analisi numerica, che sviluppa concetti, metodi e strumenti basati su algoritmi, per la risoluzione di problemi matematici.

Replicando per sbaglio la stessa simulazione, Lorenz si accorge di aver cambiato di molto poco, e in modo casuale, i dati iniziali, approssimando solo alcune delle dodici variabili del programma, prima a sei cifre decimali, poi a tre, con uno scarto minimo tra la prima e la seconda simulazione. Le due previsioni sono nettamente differenti, anche se i dati di partenza si differenziano solo per qualche cifra decimale. Nella prima simulazione la previsione dà come risultato una piccola perturbazione, nella seconda il risultato è completamente alterato. Non solo, i due risultati si differenziano tra loro per vari ordini di grandezza.

Il risultato ottenuto da Lorenz è sconvolgente nel quadro della meccanica newtoniana! In fisica è ben noto che, se un evento avviene a una determinata scala (spaziale o temporale), i fenomeni su scala inferiore sono quasi sempre trascurati. Se si descrive il moto della Terra attorno al Sole, i moti che avvengono al livello della scala terrestre (moti di macchine, aerei, persone, animali), sono trascurati. Anche moti più importanti, come il moto di rivoluzione della Luna o il moto di rotazione della Terra, non influiscono, se non in modo trascurabile, sul moto di rivoluzione terrestre. È proprio la possibilità di trascurare i fenomeni che avvengono su scala differente che rende la meccanica newtoniana così funzionale. Questo approccio esemplificativo è noto come riduzionismo newtoniano, ed è comune a molti settori della fisica. In questo contesto, una piccola variazione nello stato iniziale di un sistema (il margine d'errore), provoca una piccola variazione corrispondente, nel suo stato finale. Il margine d'errore, nel computo dei dati iniziali, è controllabile e calcolabile rispetto al risultato finale che si ottiene. Il modello newtoniano predice l'accadere di determinati eventi a partire da un dato iniziale; questo non è noto in modo esatto, in quanto soggetto a errore sperimentale, e, pertanto, anche le previsioni sono in qualche modo legate a tale errore. Affinché le previsioni siano possibili, l'errore deve mantenersi all'interno di un certo intervallo, cioè non può propagarsi in modo esplosivo. Il fenomeno non può cambiare in modo drammatico per piccole differenze nel dato iniziale, diversamente tutte le previsioni risultano invalidate.

Laplace, alla fine del XVIII secolo, concepiva il determinismo come la possibilità di conoscere esattamente lo stato futuro di un sistema, a partire dall'indicazione precisa del suo stato attuale. Il fenomerio scoperto da Lorenz, presuppone invece che ci sia una "dipendenza sensibile dalle condizioni iniziali" che influenza l'evoluzione del fenomeno stesso. Tale caratteristica impedisce di prevedere lo stato futuro dei sistemi, contrariamente a ciò che pensava Laplace. Infatti, se anche piccole perturbazioni nello stato iniziale del sistema modificano completamente il suo comportamento futuro, qualsiasi previsione è impossibile, poiché nessun dato iniziale, per quanto accuratamente misurato, è esente da errore sperimentale e quindi conosciuto esattamente.

La differenza tra le due previsioni realizzate da Lorenz non è un errore sperimentale. L'errore sperimentale rientra nel sistema di approssimazione usato dai ricercatori, nello strumento che è stato costruito per realizzare un determinato esperimento. E, generalmente, anche se presente nel fenomeno in modo più o meno evidente, non implica un cambiamento eclatante nel risultato finale. L'errore osservato da Lorenz, oggi anche noto come effetto farfalla, può essere racchiuso in una frase ormai diventata famosa: "il battito delle ali di una farfalla in Brasile può provocare un tornado in Texas", che è l'essenza dei fenomeni caotici.

| << |  <  |  >  | >> |

Pagina 24

Gli attrattori strani

Un'altra caratteristica del comportamento caotico è la presenza di attrattori strani. Il concetto di attrattore è legato alla teoria dei sistemi dinamici. Un sistema dinamico è rappresentato da una serie di grandezze che variano nel tempo. Il comportamento del sistema dinamico si realizza in uno spazio astratto nel quale esistono delle regioni che in un certo senso "catturano" il moto di tale sistema, una volta che esso giunga in queste regioni particolari, dalle quali non può più allontanarsi. Le dimensioni di questo spazio astratto sono pari al numero di grandezze coinvolte. Se le grandezze sono due, come nel caso del pendolo (angolo rispetto alla verticale e velocità) il comportamento del sistema sarà rappresentato da un punto che si muove in un piano (detto piano delle fasi), descrivendo una curva; se le grandezze sono tre, come nel caso del sistema di Lorenz, il comportamento del sistema sarà rappresentato in uno spazio a tre dimensioni, che è detto spazio delle fasi. La dimensione dello spazio astratto, dove i comportamenti dei sistemi dinamici sono rappresentati, può avere anche dimensione maggiore di tre, com'è il caso del doppio pendolo (un pendolo con un altro pendolo attaccato). In questo sistema la dimensione dello spazio astratto è 4 (due rappresentano gli angoli dei due pendoli con la verticale, e le altre due la velocità dei due pendoli). Anche in questo caso, il comportamento del sistema è descritto da curve, che si sviluppano in un iperspazio di dimensione 4.

Se consideriamo un pendolo, qualunque sia la configurazione di partenza, dopo un tempo sufficientemente lungo, a causa della forza di attrito, esso raggiungerà il punto più basso e su quella posizione il pendolo si stabilizzerà. Questo punto è un attrattore per il sistema rappresentato dal pendolo. Questi punti particolari sono noti in letteratura come punti fissi. I punti fissi non sono gli unici attrattori. Per alcuni sistemi, come il circuito di Van der Pol, il sistema può stabilizzarsi in un ciclo senza fine. Tali cicli sono noti in letteratura come cicli limite. Le grandezze del sistema assumeranno un insieme di valori predefiniti, con un periodo particolare, in un eterno divenire e ritorno sulle proprie posizioni. Tali cicli si rappresentano nel piano cartesiano delle variabili del sistema come curve chiuse. Una volta che il sistema arriva su una di tali curve la percorrerà senza fine.

Lorenz ha scoperto un altro tipo di attrattore, l' attrattore strano, che non appartiene a nessuna delle categorie precedenti, cioè non è né un punto fisso né un ciclo limite. La regione che attrae il moto del sistema di Lorenz è un volume finito, nello spazio; il comportamento dinamico del sistema è rappresentato da un punto che descrive una certa traiettoria in questo spazio. Quando il punto arriva in questa regione, esso rimarrà intrappolato per tutto il tempo, e descriverà una curva particolare che si avvolgerà su se stessa, senza intersecarsi mai in alcun punto. Queste curve, man mano che il sistema cambia nel tempo, diventeranno sempre più complesse, annodandosi su se stesse, stratificandosi, e dando vita a forme particolari. Lorenz vede per la prima volta queste curve nelle sue simulazioni e impiega un po' di tempo per riconoscerle. Gli attrattori che osserva hanno la forma tipica di una farfalla, con un corpo centrale e due ali attorno, su piani leggermente sfasati l'uno rispetto all'altro (Figura 2.2).

| << |  <  |  >  | >> |

Pagina 69

Complessità ed emergenza

Il concetto di complessità, in contrapposizione al riduzionismo tipico della fisica classica, si è venuto affermando come un formidabile apparato interpretativo di vari fenomeni fisici e biologici. Nell'approccio riduzionista, il comportamento di un sistema è compreso, quando è noto il comportamento di tutte le singole parti che compongono il sistema. Per quanto complicata possa essere una struttura, la comprensione delle sue componenti semplici, è sufficiente per comprendere il tutto. È per tale motivo che possiamo costruire un orologio o una locomotiva. L'orologio potrà essere composto da oltre 500 elementi, tra loro interconnessi con vari ingranaggi, ma il suo comportamento non ci riserverà mai sorprese. Nei comportamenti complessi le cose non vanno esattamente così. Per esempio, una cellula biologica è composta da un insieme di elementi: nucleo, mitocondri, membrana ecc., ma difficilmente potremo comprendere il comportamento della cellula, semplicemente comprendendo il comportamento delle sue componenti. Allo stesso modo, non può essere compreso il comportamento del cervello, anche se sappiamo come si comporta il singolo neurone. In questo senso il comportamento è emergente.

La cosa interessante è che il comportamento emergente si manifesta quando un numero limitato di strutture elementari interagiscono tra loro in maniera non lineare. Non è importante quanti sono o quanto sono elementari; se è presente la non linearità e una qualche forma di local activity, quasi certamente il sistema darà vita a un comportamento complesso. Nella prossima sezione introdurremo gli "automi cellulari", che, da molti punti di vista, rappresentano un sistema complesso, formato da particelle elementari, che costituiscono il sistema. I sistemi complessi stanno gettando nuova luce sulla comprensione della vita in tutte le sue manifestazioni: il metabolismo cellulare, la trasmissione genetica, il rapporto tra fenotipo e genotipo, le reti genetiche e su fino ai sistemi viventi superiori, all'interno di una nuova visione olistica. Secondo Langton, il comportamento complesso si manifesta al margine del caos. Questo concetto, entrato ormai prepotentemente nella nostra visione del mondo, individua una regione tra ordine e caos, dove la vita si sviluppa. Sistemi ordinati come i cristalli impediscono la vita; il caos, inteso in questo contesto come disordine, mancanza di ordine, distrugge l'informazione, impedendo la crescita dei sistemi viventi. Questa regione, tra ordine e caos, consente invece l'evoluzione e il mantenimento della vita. In questa regione, i sistemi computano, trasportano, conservano e trasformano l'informazione; la componente caotica consente quell'adattività e quella flessibilità, tipica dei sistemi viventi. Questa concettualizzazione, che ha preso le mosse, come vedremo nella sezione successiva, dagli studi di Langton sugli automi cellulari, gli ha consentito di coniare il termine di vita artificiale, un altro settore di ricerca, indiscutibilmente legato alla dinamica non lineare, al concetto di complessità e di emergenza. La vita artificiale ha come obiettivo lo studio dei fenomeni emergenti, attraverso la costruzione di modelli matematici o agenti fisici, come i robot autonomi, che simulano comportamenti vitali, allo scopo di indagare le caratteristiche salienti della vita stessa, come l'auto-organizzazione, la riproduzione, l'adattività. E, poiché le manifestazioni della vita naturale sono in generale straordinariamente complesse, difficilmente riproducibili in laboratorio, con vari problemi etici correlati, l'uso di ambienti artificiali, come quelli in silicio (simulazioni nel computer), consente di poter disporre di apparati semplici, effettuare esperimenti facilmente riproducibili, e tentare di comprendere quella logica della vita di cui parlava von Neumann agli inizi degli anni '50 del secolo scorso.


Automi cellulari

Gli automi cellulari furono inventati verso la metà del secolo scorso dal grande scienziato John von Neumann. Il contesto è ancora quello di Los Alamos, dove incontriamo ancora, con un ruolo cruciale, il grande matematico ungherese Ulam, che, come ricorderete, assieme a Fermi diede inizio al calcolo scientifico. Il problema di von Neumann era investigare la logica della vita e per questo motivo egli concentrò la sua attenzione su una macchina in grado di costruire e/o riprodurre se stessa. Il sistema cui pensava era un costruttore universale, che potendo costruire tutto, poteva anche costruire se stesso. L'approccio era però complicato dalle componenti meccaniche, difficili da gestire. Ulam suggerì a von Neumann di pensare a un modello eminentemente matematico. Dal genio di von Neumann, nacquero in questo modo gli automi cellulari. Ma cos'è un automa cellulare e perché è così importante nella storia della scienza contemporanea? Vediamo di ripercorrere le tappe dello sviluppo e della fortuna di tale approccio per lo studio della complessità.

Un automa cellulare è un semplice elemento in grado di assumere solo valori discreti (0, 1, 2 ecc.), detti stati dell'automa. Un automa è un semplicissimo elaboratore il cui stato varia in funzione del suo stato e di quello dei suoi vicini. A differenza delle CNN, l'evoluzione del singolo automa, non è regolata da equazioni differenziali, ma da semplici relazioni algebriche. Ogni automa si evolve in parallelo con gli altri, e in questo senso, il sistema è detto massicciamente parallelo. Data una configurazione della rete, a un certo tempo, le regole di evoluzione consentono di determinare la configurazione degli automi cellulari al tempo successivo. Siccome il tempo è discreto e gli stati degli automi sono discreti, si dice che gli automi cellulari sono sistemi dinamici discreti.

Pur essendo stati utilizzati da molti autori in vari contesti, gli automi cellulari rimasero una curiosità, nota solo a pochi studiosi, per molto tempo. Nel 1970, Martin Gardner, il divulgatore scientifico che curò per molti anni la rubrica dedicata ai giochi matematici della rivista Scientific American, parlò di un nuovo gioco noto come Life (vita), inventato dal matematico di Cambridge, Inghilterra, John Conway. Tale sistema stava letteralmente spopolando nei dipartimenti universitari inglesi. Il gioco, molto semplice, si serve di una scacchiera, con caselle nere o bianche. Le celle nere rappresentano la vita, le celle bianche la morte. Una cella per mantenersi viva deve avere due o tre celle vicine, a loro volta vive. Muore negli altri casi. La metafora usata comporta che la cella nera (la vita) ha bisogno di un certo numero di celle vive intorno. Se invece le celle nere sono troppe, la vita scompare, causa la sovrappopolazione. Una cella bianca (la morte) diventa viva solo se ci sono tre celle nere vicine: non una di più né una di meno. Come si può notare, le regole sono molto semplici. Perché tutto questo interesse per questo gioco? Qual è il suo segreto? Si tratta di un gioco di simulazione che, in modo imprevedibile crea strutture emergenti, che si spostano sulla scacchiera, interagiscono fra loro, creano altre strutture, scompaiono e si riformano, in un eterno divenire. Il gioco sembra mimare fenomeni della realtà e soprattutto l'evoluzione biologica. Gli appassionati di quel tempo, ricercatori ma anche gente comune o studenti, stavano osservando le prime simulazioni di vita artificiale. Successivamente si dimostrerà che questi sistemi sono capaci di computazione universale.

Nel gioco Life, al di là del comportamento elementare delle singole celle, si assiste inoltre all'emergenza spontanea di strutture complesse, dove più elementi iniziano a sincronizzarsi, collaborando tra loro, su una scala che va al di là della semplice interazione locale. Come può avvenire tutto ciò? Com'è possibile che comportamenti elementari possano organizzarsi spontaneamente per dare vita a comportamenti complessi a una scala superiore? Bisognerà aspettare gli anni tra il 1982 e il 1984 perché un giovane brillante di nome Stephen Wolfram affronti e risolva il problema. Mentre gli automi cellulari di Life sono bidimensionali (infatti sono celle di una scacchiera), egli considera automi ancora più semplici che si sviluppano in forma unidimensionale, in modo che ogni automa possieda solo un vicino a destra e a sinistra. Inoltre gli stati dell'automa, come in Life, sono i più semplici che si possano immaginare: solo 0 o 1, bianco o nero, vivo o morto. Wolfram comincia a studiare in modo sistematico tutte le combinazioni possibili e fa una scoperta fondamentale: al di là delle infinite variazioni (ricordiamo che i sistemi sono non lineari e quindi hanno un'estrema sensibilità ai dati iniziali), il comportamento di qualunque sistema è riassumibile in quattro categorie fondamentali. Ogni automa si evolverà, dopo un transiente, in modo da appartenere a una delle seguenti classi:

Classe I. Il sistema evolve verso uno stato uniforme, composto da celle o tutte nello stato 0 o tutte nello stato 1.

Classe II. Il sistema evolve su uno stato periodico nel tempo o nello spazio, o con comportamenti che combinano simmetrie spaziali e temporali.

Classe III. Il sistema evolve in uno stato caotico, dove nessuna struttura, simmetria o configurazione particolare è distinguibile.

Classe IV. Il sistema evolve in uno stato complesso, nel quale varie strutture sono perfettamente distinguibili. Queste si muovono con velocità definite e costanti, possono interagire con altre strutture e formarne di nuove o persino distruggersi nell'interazione.

| << |  <  |  >  | >> |

Pagina 83

I memristor

I memristor, contrazione del termine memory resistor (resistore con memoria) sono un nuovo elemento circuitale, la cui esistenza è stata ipotizzata da Leon Chua nel già citato articolo del 1971. Il ragionamento seguito da Chua, di natura estetico-filosofica, riguarda le simmetrie tra 4 grandezze fisiche fondamentali: la differenza di potenziale indicata con V, la carica elettrica, indicata con q, il flusso del campo magnetico indicato con φ, l'intensità di corrente, indicata con i. In un elemento circuitale a due poli tra le variazioni di queste grandezze esistono delle relazioni. Queste grandezze sono perfettamente misurabili in laboratorio. Senza andare troppo in profondità in questo contesto tecnico, si può dire brevemente che esistono delle relazioni ben note tra queste grandezze, che caratterizzano il dispositivo fisico. Questi dispositivi sono di natura passiva, cioè disperdono energia al loro interno. Tre di questi dispositivi sono già noti da moltissimo tempo:

• Il capacitore, scoperto nel 1745, che lega la differenza di potenziale con la differenza di carica elettrica ai capi del dispositivo, indicato con C;

• Il resistore, scoperto nel 1827, che lega la variazione di differenza di potenziale con la variazione di intensità di corrente ai capi del dispositivo, indicato con R;

• L'induttore, scoperto nel 1831, che lega la variazione di flusso del campo magnetico con la variazione di intensità di corrente ai capi del dispositivo, indicato con L.

Se riportiamo, come fanno Williams e i suoi collaboratori, queste quattro grandezze in un grafico, ci accorgiamo della mancanza di un quarto elemento, che lega la variazione di flusso del campo magnetico con la variazione di carica ai capi del dispositivo. Chua, nel 1971, indica con M questo dispositivo e ne descrive il comportamento fisico. Chua dimostra che questo nuovo elemento non è derivabile dagli altri tre; allo stesso modo dei precedenti è elementare. Inoltre questo nuovo elemento è non lineare. È importante notare che Chua ha sempre considerato un'arbitraria restrizione dell'elettronica ai soli circuiti lineari e la sua intera storia scientifica dimostra quali sorprese la non linearità sia in grado di riservarci.

La storia del quarto elemento, l'elemento mancante, richiama alla mente le equazioni di Maxwell e le onde elettromagnetiche. Anche Maxwell negli anni '60 del XIX secolo si trova di fronte a un elemento mancante, la cosiddetta corrente di spostamento. I fenomeni elettromagnetici, a quel tempo, erano già noti e la connessione tra elettricità e magnetismo, dopo la scoperta di Faraday, era ormai un fatto assodato. Analizzando le equazioni, Maxwell si accorse che le 4 equazioni sarebbero state perfettamente simmetriche, se si aggiungeva un nuovo termine, non ottenibile tra l'altro dai fatti sperimentalmente noti all'epoca. Solo la simmetria faceva presagire la presenza di quel nuovo termine. Maxwell aggiunge quel termine e si accorge che le equazioni così ottenute prevedevano la presenza di onde legate alle variazioni del campo elettromagnetico. Occorsero circa 20 anni perché Hertz riuscisse a dimostrare, sperimentalmente, la presenza di queste onde, confermando così in modo indiscutibile la validità del paradigma maxwelliano e aprendo la strada alle infinite applicazioni tecnologiche legate a questa scoperta. Ovviamente non mancarono le polemiche: come facevano queste onde a propagarsi nel vuoto? Esisteva un mezzo, l' etere che ne consentiva lo spostamento? La storia eliminerà poi questo componente inessenziale lasciando le equazioni di Maxwell come esempio immortale di teoria empirica e come uno dei massimi esempi della creatività umana.

A partire dal 2004 Williams impiega ben 2 anni di duro lavoro per dimostrare quelle che definisce le due equazioni più importanti della sua carriera e finalmente il 20 Agosto del 2006, il suo decennale sforzo giunge al termine, come egli stesso afferma: "Avevamo finalmente un modello da usare per ingegnerizzare il nostro elemento, che avevamo identificato positivamente come memristor. Ora potevamo usare tutta la teoria che Chua aveva creato per aiutarci a progettare nuovi circuiti con i nostri elementi. Un mese più tardi il sistema funzionava. Non solo avevamo uno strumento funzionante, ma eravamo anche capaci di migliorare e cambiare le sue caratteristiche a piacere". Lo straordinario successo non è ovviamente solo del gruppo di ricercatori dell'HP, ma soprattutto di Chua, che 35 anni prima aveva immaginato l'esistenza del nuovo elemento, ne aveva descritto le caratteristiche e lo aveva simulato con 15 transistor.

Questo nuovo fondamentale elemento di natura non lineare, in grado di conservare la memoria, apre nuove strade alle possibili applicazioni: infatti visto che è emulato da transistor, in un rapporto di inversione, potrebbe essere in grado, a sua volta, di emulare più transistor, aprendo quindi una nuova era per la legge di Moore. Altre ovvie applicazioni sono legate alle memorie: oggi quando si chiude un computer e quando si riapre occorre che tutti i processi ricomincino, con ovvio spreco di tempo e di energia. I memristor, conservando la memoria, permetteranno di riavviare un processo dallo stesso punto da dove è stato interrotto. Ma forse le applicazioni più intriganti sono quelle legate a nuove forme di processo. Come afferma ancora una volta Williams: "Ho sempre pensato alla similarità del comportamento dei memristor con quello delle sinapsi. Giusto adesso, Greg sta progettando nuovi circuiti che mimano aspetti del cervello. I neuroni sono implementati con transistor, gli assoni sono nanofili, e le sinapsi sono i memristor al punto di incrocio. Un circuito come questo potrebbe eseguire in tempo reale analisi di dati per sensori multipli. Pensate: una infrastruttura fisica intelligente che potrebbe fornire una valutazione e un monitoraggio strutturale per ponti. Quante vite e quanti soldi potrebbero essere risparmiati? Sono convinto che i memristor sicuramente cambieranno la progettazione di circuiti nel XXI secolo così come i transistor l'hanno cambiata nel XX".

La ricerca in questo settore è tutt'ora in corso, ma questa è materia più di cronaca scientifica che di storia.

| << |  <  |  >  | >> |

Pagina 108

Il percorso che abbiamo fatto finora è molto lungo: siamo partiti da un circuito elettronico e siamo pervenuti ad artefatti artistici anche materiali come sculture. Vale la pena riassumere questo percorso (Figura 5.12):

- il circuito di Chua è un semplice circuito non lineare di facile realizzabilità e di basso costo; nel circuito viaggiano elettroni e se misuriamo la differenza di potenziale ai capi dei condensatori possiamo osservare sperimentalmente un comportamento caotico e varie strade verso il caos; il contesto di riferimento è quello della fisica;

- il circuito di Chua può essere rappresentato tramite un modello matematico di tre equazioni differenziali in tre incognite; può essere dimostrato (matematicamente) che questo sistema dinamico non lineare esibisce un comportamento caotico; il contesto di riferimento è quello della matematica del continuo;

- le equazioni del corrispondente modello matematico possono essere integrate numericamente e le corrispondenti simulazioni produrranno tre sequenze di numeri; il contesto di riferimento è quello del calcolo numerico;

- queste sequenze di numeri potranno essere rappresentate tramite una sequenza di punti nello spazio: questi punti potranno essere isolati e rappresentati come sfere o tramite altre figure geometriche, come linee o tubi; il contesto di riferimento è quello della geometria e della computer graphics;

- l'insieme di punti o di linee saranno percepite come forme, il contesto di riferimento è quello della percezione visiva;

- le tre sequenze numeriche individuano un flusso temporale che potrà essere mappato in un flusso sonoro o musicale; il contesto di riferimento è quello della musica generativa e della percezione sonora;

- le forme potranno essere successivamente realizzate con materiali opportuni, creando delle sculture reali o altri oggetti; è questa la fine del percorso: il moto degli elettroni di partenza dopo varie rappresentazioni virtuali e processi computerizzati è stato ritrasformato in materia.

| << |  <  |