Autore John von Neumann
Titolo Computer e cervello
Edizioneil Saggiatore, Milano, 2014, le Silerchie 20 , pag. 144, cop.rig., dim. 13x20x1,8 cm , Isbn 978-88-428-1966-0
OriginaleThe Computer & the Brain
EdizioneYale University Press, New Haven, 1958
TraduttorePaolo Bartesaghi
LettoreDavide Allodi, 2015
Classe informatica: fondamenti , scienze cognitive , informatica: storia












 

| << |  <  |  >  | >> |

Indice


Prefazione alla terza edizione
    di Ray Kurzweil                                           9

Prefazione alla seconda edizione
    di Paul e Patricia Churchland                            31

Prefazione
    di Klara von Neumann                                     45

Introduzione                                                 53


PARTE PRIMA         Il computer                              55

IL METODO ANALOGICO                                          57

Le operazioni di base convenzionali 58
Le operazioni di base non convenzionali 58

IL METODO DIGITALE                                           60

Marcatori, loro combinazioni e loro traduzioni tecniche 60
Tipologie di macchine digitali e loro componenti di base 61
Schemi in serie e in parallelo 62
Le operazioni di base convenzionali 62

CONTROLLO LOGICO                                             65

Controllo mediante interfaccia esterna 66
Controllo logico mediante nastro 66
Il principio: un solo organo per ogni operazione di base 67
La conseguente necessità di uno speciale organo di memoria 68
Controllo mediante «punti di sequenza» 68
Controllo memorizzato 71
«Modus operandi» del controllo memorizzato 74
Forme miste di controllo 75

PROCEDURE NUMERICHE MISTE                                    76

Rappresentazioni miste di numeri.
    Macchine costruite su questa base 77

PRECISIONE                                                   79

Motivi che rendono necessaria un'alta precisione (digitale)  80

CARATTERISTICHE DELLE MACCHINE ANALOGICHE MODERNE            83

CARATTERISTICHE DELLE MACCHINE DIGITALI MODERNE              84

Componenti attivi; questioni di velocità 85
Numero di componenti attivi necessari 85
Organi di memoria.
    Tempi di accesso e capacità di una memoria 86
Registri di memoria costituiti da organi attivi 87
Il principio gerarchico per organi di memoria 88
Componenti di memoria; questioni di accesso 89
Complessità del concetto di tempo di accesso 91
Il principio di indirizzamento diretto 92


PARTE SECONDA       Il cervello                              93

DESCRIZIONE SEMPLIFICATA DELLA FUNZIONE DI UN NEURONE        96

LA NATURA DELL'IMPULSO NERVOSO                               96

Il processo di stimolazione 98
Meccanismo di generazione di impulsi mediante impulsi
    e suo carattere digitale 99
Caratteristiche temporali della risposta nervosa,
    fatica e recupero 101
Dimensioni di un neurone.
    Confronto con i componenti artificiali 103
Dissipazione di energia.
    Confronto con i componenti artificiali 105
Sintesi dei confronti 106

CRITERI DI STIMOLAZIONE                                     109

Criteri di stimolazione più semplici:
    criteri logici elementari 109
Criteri di stimolazione più complessi 110
Soglia 111
Tempo di sommazione 112
Criteri di stimolazione per i recettori 113

IL PROBLEMA DELLA MEMORIA NEL SISTEMA NERVOSO               117

Princìpi per stimare la capacità della memoria del
    sistema nervoso 118
Stime delle capacità di memoria sulla base delle
    precedenti convenzioni 120
Varie possibili identificazioni fisiche della memoria 121
Analogie con le macchine di calcolo artificiali 123
Gli elementi costitutivi della memoria non devono
    necessariamente coincidere con quelli degli organi
    attivi di base 123

COMPONENTI ANALOGICHE E DIGITALI NEL SISTEMA NERVOSO        125

Ruolo del meccanismo genetico nel contesto precedente 126

CODICI E LORO RUOLO NEL CONTROLLO DEL FUNZIONAMENTO
    DI UNA MACCHINA                                         127

Concetto di codice completo 127
Concetto di codice breve 128
La funzione di un codice breve 129

LA STRUTTURA LOGICA DEL SISTEMA NERVOSO                     131

Importanza delle procedure numeriche 131
Interazione delle procedure numeriche con la logica 132
Ragioni per aspettarsi requisiti di alta precisione 132

NATURA NON DIGITALE MA STATISTICA DEL SISTEMA DI NOTAZIONE
    IMPIEGATO                                               134

Deterioramento aritmetico.
    Ruoli delle profondità logica e aritmetica 136
Precisione aritmetica o affidabilità logica, alternative 136
Ulteriori tratti statistici del sistema di comunicazione
    che potrebbero essere utilizzati 137

IL LINGUAGGIO DEL CERVELLO
    NON È IL LINGUAGGIO DELLA MATEMATICA                    138



 

 

| << |  <  |  >  | >> |

Pagina 9

Prefazione alla terza edizione
Ray Kurzweil, 2012



Le tecnologie dell'informazione hanno già trasformato ogni aspetto della vita umana, dagli affari alla politica, alle arti. Alla luce della corrispondente crescita esponenziale del rapporto prestazioni-prezzo e della capacità di qualunque forma di tecnologia informatica, l'era dell'informazione sta costantemente allargando la propria sfera di influenza. Molto probabilmente, il più importante processo informatico da comprendere è proprio l'intelligenza umana e questo libro rappresenta forse il primo serio esame della relazione tra il modo di operare del nostro pensiero e quello di un computer, esame condotto dal matematico che per primo concepì l'architettura fondamentale dell'era informatica.

Entro il grande progetto di comprensione del funzionamento del cervello umano, stiamo facendo progressi sempre più rapidi nella decodifica dei paradigmi del pensiero e stiamo applicando questi metodi ispirati alla biologia alla creazione di macchine sempre più intelligenti. L'intelligenza artificiale (AI) così concepita si eleverà alla fine oltre i limiti del pensiero umano. La mia opinione in proposito è che lo scopo di questo sforzo non sia quello di sostituirci ma di espandere la portata della simbiosi uomo-macchina già in atto nella nostra civiltà. È questo a rendere unica la nostra specie.

Quali sono le idee chiave che stanno alla base dell'era dell'informazione? La mia opinione è che ve ne siano cinque. John von Neumann è in gran parte responsabile di almeno tre di esse e ha dato un fondamentale contributo alla quarta. Claude Shannon ha risolto il problema fondamentale di come rendere affidabile un'informazione. Alan Turing , influenzato da una conferenza giovanile di von Neumann, ha quindi dimostrato e definito l'universalità del calcolo. Basandosi sui lavori di Turing e Shannon, von Neumann ha a sua volta creato la macchina di von Neumann, che è diventata – e resta ancora oggi – l'architettura fondamentale del calcolo.

Nel volume apparentemente modesto che tenete fra le mani, von Neumann espone il suo modello di calcolo e procede a definire la sostanziale equivalenza tra un computer e un cervello umano. Von Neumann riconosce differenze strutturali apparentemente profonde ma, applicando il principio di Turing di equivalenza del calcolo, concepisce una strategia per interpretare in termini di calcolo i metodi utilizzati dal cervello, per ricreare tali metodi e in definitiva per ampliarne le potenzialità. Questo libro appare tanto più profetico quanto più si consideri che è stato scritto oltre mezzo secolo fa, quando le neuroscienze avevano a disposizione solo strumenti tra i più primitivi. Infine, von Neumann preconizza la necessaria accelerazione della tecnologia e le sue inevitabili conseguenze sull'incipiente e singolare trasformazione dell'esistenza umana. Ma consideriamo queste cinque idee chiave con un po' più di dettaglio.

[...]


L'unico vero precursore del concetto di macchina di von Neumann risale a un secolo prima, si tratta della macchina analitica di Charles Babbage. Egli la descrisse per la prima volta nel 1837: includeva l'idea di un programma memorizzato, fornito alla macchina tramite schede perforate prese in prestito da un telaio Jacquard. La sua memoria ad accesso casuale includeva un migliaio di parole di cifre decimali ciascuna (l'equivalente di circa 21 kilobyte). Ogni istruzione includeva un codice di operazione e un numero operando, proprio come i moderni linguaggi macchina, nonché salti condizionati e cicli. Si trattava quindi di una vera e propria macchina di von Neumann. Sembra però che la macchina analitica fosse al di là delle capacità meccaniche e organizzative di Babbage e non entrò mai in funzione. Non è chiaro se i pionieri dei computer del ventesimo secolo, tra cui von Neumann, fossero a conoscenza del lavoro di Babbage.

Nonostante non sia mai entrato in funzione, il computer di Babbage ebbe il merito di fondare quel settore dell'informatica che oggi chiamiamo programmazione. Ada Byron, contessa di Lovelace e unica figlia legittima del poeta Lord Byron, scrisse programmi per la macchina analitica sui quali eseguiva un debug mentale, una pratica ben nota ai creatori di software di oggi e chiamata «table checking». Ella tradusse un articolo del matematico italiano Luigi Menabrea dedicato alla macchina analitica, aggiungendovi di proprio pugno ampie note. Scrisse che «la macchina analitica tesse modelli algebrici proprio come il telaio Jacquard tesse fiori e foglie». E proseguì fornendo forse le prime vere speculazioni sulla realizzabilità di una intelligenza artificiale, concludendo però che la macchina analitica «non aveva la pretesa di originare alcunché».

[...]


In questo volume, ci sono pochissime conclusioni che trovo essere in significativo contrasto con ciò che noi oggi comprendiamo. Oggi noi non siamo in grado di raffigurare il cervello perfettamente, quindi non è ragionevole aspettarsi che possa farlo un libro di retroingegneria del cervello scritto nel 1956. Detto questo, le descrizioni di von Neumann sono notevolmente aggiornate e i dettagli su cui lui basa le sue conclusioni restano validi. Quando prende in considerazione un qualsiasi meccanismo nel cervello mostra come, nonostante le apparenti differenze, un computer moderno potrebbe realizzare la stessa operazione. I meccanismi analogici del cervello possono essere simulati attraverso il calcolo digitale perché quest'ultimo può eguagliare valori analogici a qualsiasi grado di precisione desiderato (e la precisione delle informazioni analogiche nel cervello è piuttosto bassa).

Anche il massiccio parallelismo del cervello umano può essere simulato, dato il significativo vantaggio in velocità dei computer nel calcolo seriale (un vantaggio che si è notevolmente ampliato da quando il libro è stato scritto). Inoltre, anche con i computer, possiamo pensare di utilizzare processi di elaborazione simultanei, utilizzando appunto più macchine di von Neumann in parallelo. Ed è precisamente questo il modo in cui oggi funzionano i supercomputer.

[...]


Von Neumann era profondamente consapevole dei ritmi accelerati del progresso e delle profonde implicazioni che questo progresso avrebbe avuto per il futuro dell'umanità. Arriviamo così alla quinta idea chiave dell'era dell'informazione. Nel 1958, un anno dopo la morte di von Neumann, un collega matematico, Stan Ulam, riferendosi a una conversazione con lui, riportò questo suo pensiero: «Il progresso sempre accelerante della tecnologia e dei cambiamenti nei modi di vita degli esseri umani dà l'apparenza dell'avvicinarsi di una qualche fondamentale singolarità della storia della razza umana oltre la quale gli affanni degli esseri umani, come li conosciamo, non potranno più continuare».

Si tratta del primo utilizzo noto della parola «singolarità» nel contesto della storia umana.

Ray Kurzweil , 2012

| << |  <  |  >  | >> |

Pagina 31

Prefazione alla seconda edizione
Paul e Patricia Churchland, 2000



Questo libretto dall'apparenza innocente sta nell'occhio del ciclone. Rappresenta un focus di calma e chiarezza al centro di un vasto vortice di forti discussioni e programmi di ricerca contrapposti. E ciò appare tanto più peculiare quanto più si consideri che è stato scritto nel 1956, quando la recente esplosione delle tecnologie informatiche, che avrebbe cambiato per sempre la seconda metà del ventesimo secolo, muoveva i suoi primissimi passi. Ciò che John von Neumann cercò di fornire nella stesura finale di questa serie di lezioni — qui riunite in un unico volumetto — fu una valutazione equilibrata delle possibili attività computazionali del cervello umano, osservato attraverso la lente delle moderne teorie computazionali e alla luce sia delle nuove tecnologie informatiche sia delle neuroscienze empiriche così come si presentavano in quegli anni.

Ci si potrebbe attendere che una tale valutazione, formulata mezzo secolo fa, debba risultare irrimediabilmente datata. In realtà è vero il contrario. Dal punto di vista della pura teoria computazionale (la teoria che si occupa di spiegare come si generino gli elementi di una qualunque funzione computabile), le basi gettate da William Church, Alan Turing e, per certi aspetti, dallo stesso von Neumann si sono rivelate robuste e feconde come nessuno di essi avrebbe potuto sperare. Quella lente è stata ben calibrata fin dall'inizio e rappresenta ancora oggi un punto di vista acuto su di una vasta gamma di problemi.

Per quanto riguarda le tecnologie informatiche, le macchine che oggi, al volgere del millennio, fanno bella mostra di sé in ogni ufficio e in metà delle nostre case americane sono tutti esempi di ciò che in ultima analisi dovremmo chiamare «l'architettura di von Neumann». Si ispirano tutte, infatti, all'organizzazione funzionale sviluppata ed esplorata primariamente da von Neumann, un'organizzazione che utilizza un «programma» sequenziale contenuto nella «memoria» modificabile della macchina per prescrivere la natura e l'ordine dei passi computazionali di base svolti dal «processore centrale» della macchina. La motivazione originale di una tale organizzazione è qui delineata vivacemente e con lucidità nelle parole di von Neumann, per quanto egli parli di «codice» dove noi oggi parliamo di «programmi» e parli di «codici completi» in contrapposizione a «codici brevi» dove noi oggi siamo soliti parlare di «programmi in linguaggio-macchina» e «linguaggi di programmazione ad alto livello». Ma di fatto sono cambiate soltanto le parole e le velocità dei processori. John von Neumann riconoscerebbe ogni macchina attualmente in circolazione — da un palmare ai supercomputer, che stiano eseguendo giochi di poker o stiano simulando la nascita di galassie — come esempi successivi della sua originaria visione architettonica. Possiamo tranquillamente affermare che i nostri numerosi progressi tecnologici in questo ambito non si sono lasciati alle spalle, in alcun senso rilevante, le sue idee originarie.

Per quanto riguarda infine le neuroscienze empiriche, la situazione è un po' più complicata ma ancora più interessante. Per cominciare, le diverse neuroscienze (la neuroanatomia, la neurofisiologia, la neurobiologia evolutiva, la neurobiologia cognitiva) hanno fatto tutte progressi monumentali. Anche in questo caso, ricerche accurate condotte per più di mezzo secolo hanno prodotto una scienza sostanzialmente nuova. Grazie alle molte tecniche sperimentali recentemente sviluppate (la microscopia elettronica e confocale, la tecnica del patch clamp, l'elettroencefalografia e la magnetoencefalografia, la TAC, la PET, la risonanza magnetica nucleare ecc.) oggi abbiamo un quadro molto più preciso della microstruttura a fibre del cervello, del comportamento elettrochimico delle sue parti microscopiche e delle sue attività globali durante le varie forme di apprendimento cosciente. Anche se ancora sede di molti misteri, il cervello non è più la «scatola nera» che era una volta.

Curiosamente, però, queste due scienze così affini — l'una focalizzata sui processi cognitivi artificiali e l'altra sui processi cognitivi naturali — hanno seguito strade parallele in sostanziale isolamento l'una dall'altra, dal 1950 fino ai giorni nostri. Le figure che hanno prodotto progressi significativi nei campi dell'informatica in genere si sono dedicate poco o (più spesso) per nulla allo studio del cervello biologico e le loro attività di ricerca si sono tipicamente concentrate sulla scrittura di nuovi programmi, sullo sviluppo di nuovi linguaggi o ancora sulla produzione di microchip via via più evoluti, ma nessuna di queste attività le ha mai portate direttamente in contatto con le neuroscienze empiriche. Parimenti, le figure che hanno prodotto progressi significativi nei campi delle neuroscienze tipicamente si sono dedicate poco o nulla allo studio della teoria computazionale, della teoria degli automi, della logica formale, dell'aritmetica binaria o dell'elettronica dei transistor. Più probabilmente, hanno dedicato il tempo delle proprie ricerche a colorare fettine di tessuto cerebrale per l'esame microscopico o ad applicare microelettrodi a neuroni viventi per registrarne i comportamenti elettrici durante l'esercizio di varie funzioni cognitive. Se hanno utilizzato un computer e imparato un linguaggio di programmazione — come molti hanno fatto — è stato solo come strumento per organizzare e raccogliere le proprie attività sperimentali, come si potrebbe usare un voltmetro, una calcolatrice o un qualsiasi archivio cartaceo.

La verità, oggi, sembra essere questa: nonostante ciascuna di queste due scienze abbia raggiunto successi strepitosi pur avendo ancora parecchio da imparare entro il proprio dominio, nessuna delle due sembra avere molto da insegnare all'altra nel dominio che le è proprio. A dispetto di una presunta sovrapposizione di questi domini — dopo tutto è vero che condividono l'interesse per i processi cognitivi e computazionali — hanno seguito flussi paralleli e ciascuna di esse ha compiuto i propri notevoli progressi con scarsi, se non nulli, input da parte della scienza sorella. Perché è andata così?

[...]


Considerate congiuntamente, queste due severe limitazioni — l'una sulla velocità e l'altra sulla precisione — portano von Neumann alla conclusione che, qualunque sia il regime computazionale usato dal cervello, in qualche modo deve essere tale da comportare un minimo in ciò che egli definisce «profondità logica». Cioè, qualunque cosa faccia il cervello, è impossibile che esegua migliaia e migliaia di passi computazionali sequenzialmente orchestrati come accade nell'attività ricorsiva ad altissima frequenza del processore centrale di una macchina digitale. Data la lentezza delle sue attività neuronali, non c'è abbastanza tempo perché completi anche solo il più banale dei calcoli. E, data la scarsa precisione delle sue rappresentazioni tipiche, il cervello sarebbe computazionalmente inaffidabile anche se avesse abbastanza tempo.

Per von Neumann si tratta di una conclusione molto forte in quanto è ovvio che, nonostante i limiti descritti, il cervello riesca in qualche modo a eseguire una grande varietà di calcoli sofisticati e lo riesca a fare in un batter di ciglia. Ma non c'è nulla di sbagliato nelle sue argomentazioni e le limitazioni che egli indica sono del tutto genuine. E dunque come la mettiamo?

Come von Neumann correttamente intuisce, il regime di calcolo del cervello appare compensare la sua inevitabile mancanza di profondità logica sfruttando una straordinaria ampiezza logica. Con le sue parole: «È molto probabile che i grandi ed efficienti automi naturali siano altamente paralleli, mentre i grandi ed efficienti automi artificiali tendano a esserlo meno e a essere invece molto più seriali» (corsivo dell'autore). I primi «tenderanno a raccogliere il maggior numero di elementi logici (o informativi) possibili simultaneamente e a elaborarli simultaneamente» (corsivo nostro). Questo significa, aggiunge von Neumann, che dobbiamo allargare il nostro sguardo al di là dei singoli neuroni fino a includere, nel nostro computo complessivo degli «organi attivi di base» del cervello, tutte le sue numerose sinapsi.

Queste, dunque, le principali intuizioni. Come sappiamo oggi, il cervello contiene circa 10^14 connessioni sinaptiche, ognuna delle quali modula il segnale assonale in arrivo prima di passarlo al neurone ricevente. Il compito del neurone è quindi quello di sommare o, in altri termini, di integrare gli input provenienti da quelle connessioni sinaptiche (ben 10000 su ogni singola cellula) e generare quindi il proprio output assonale. E, fatto ancora più importante, queste minuscole azioni modulanti hanno luogo tutte simultaneamente. Questo significa che, essendo ogni sinapsi attiva indicativamente circa 100 volte al secondo (ricordiamo che le frequenze tipiche degli impulsi sono dell'ordine dei 100 Hz), il numero totale delle azioni di base di elaborazione dell'informazione eseguite dal cervello deve essere di circa 10^2 per 10^14, cioè 10^16 operazioni al secondo! È un risultato straordinario per un qualunque sistema e il confronto con il nostro precedente conteggio di 10^9 operazioni di base al secondo per un personal computer di ultima generazione risulta del tutto a favore del cervello umano. Dopo tutto, il cervello non è né una tartaruga né un asino. E questo perché, tanto per cominciare, non è mai stato una macchina seriale digitale: invece è una macchina analogica fortemente parallela.

[...]


Von Neumann è l'autore dell'architettura computazionale che è alla base di quasi tutta la «rivoluzione dei computer» del XX secolo, una rivoluzione che avrà un impatto sul futuro a lungo termine dell'umanità, grande almeno quanto quello della meccanica di Isaac Newton o dell'elettromagnetismo di James Maxwell. Ma von Neumann ebbe anche la capacità e l'intuizione, per quanto riguarda il cervello biologico, di saper guardare oltre la propria architettura di calcolo e di saper delineare i tratti di un nuovo paradigma esplicativo di potenza probabilmente superiore.

Al termine di infiniti dibattiti sulla natura dell'intelligenza, si sentono spesso illustri commentatori auspicare l'arrivo di qualcuno che possa essere considerato «il Newton della mente». Noi vogliamo concludere con una nota diversa. Come suggeriscono le osservazioni precedenti e come il seguente libro illustra, ci sono argomentazioni abbastanza forti per ritenere che l'atteso Newton della mente sia arrivato e, ahimè, se ne sia già andato. Il suo nome è John von Neumann.

Paul e Patricia Churchland , 2000

| << |  <  |  >  | >> |

Pagina 53

Introduzione



Non essendo io né un neurologo né uno psichiatra ma un matematico, è necessario fornire alcune spiegazioni e giustificazioni del lavoro che segue. Si tratta di un approccio alla comprensione del sistema nervoso dal punto di vista di un matematico. Questa affermazione, tuttavia, deve essere subito precisata in entrambe le sue componenti essenziali.

In primo luogo, è eccessivo descrivere ciò che tenterò di fare qui come un «approccio alla comprensione». Si tratta piuttosto di un insieme complessivamente organizzato di ipotesi su come si debba realizzare un tale approccio. Cercherò cioè di individuare con quali prospettive sia possibile affrontare matematicamente il problema e di distinguere quelle che appaiono a priori più promettenti, per quanto ci sia consentito dal punto di osservazione ancora incerto da cui possiamo analizzarle. Fornirò anche alcune ragioni a supporto di tali ipotesi.

In secondo luogo, «il punto di vista di un matematico», così come vorrei fosse inteso in questo contesto, comporta che venga posta enfasi su aspetti diversi da quelli contemplati da un approccio canonico: oltre all'insistenza sulle tecniche matematiche generali, rimarranno sempre in primo piano nel discorso gli aspetti logici e statistici. D'altra parte, la logica e la statistica dovrebbero essere concepite primariamente, sebbene non esclusivamente, come gli strumenti di base di una «teoria dell'informazione» il cui oggetto di studio sarà l'intero corpo di esperienze cresciuto intorno alla progettazione, valutazione e programmazione degli automi logico-matematici complessi. E i più tipici, sebbene non unici, automi di questo genere sono, naturalmente, le grandi macchine di calcolo elettronico.

Rilevo, per inciso, che sarebbe assai soddisfacente se si potesse parlare di una «teoria» per tali automi. Purtroppo, ciò che abbiamo a disposizione in questo momento — e a cui devo far riferimento — può ancora essere descritto soltanto come un «corpo di esperienze» sviluppato in modo imperfetto e scarsamente formalizzato.

Per concludere, mi si lasci dire che il mio obiettivo primario è quello di far emergere anche un altro aspetto della questione, meno esplicito. Ho il sospetto che uno studio matematico più approfondito del sistema nervoso — «matematico» nel senso prima descritto — influenzerà la nostra comprensione di alcuni aspetti della stessa matematica coinvolta. In effetti, potrà modificare il modo in cui guardiamo la matematica e la logica stesse. Nel seguito, cercherò di spiegare le ragioni di questa mia convinzione.

| << |  <  |  >  | >> |

Pagina 55

PARTE PRIMA
Il computer



Comincio discutendo alcuni dei princìpi soggiacenti la sistematica e la prassi delle macchine di calcolo.

Le macchine di calcolo esistenti si dividono in due grandi classi: «analogiche» e «digitali». Tale suddivisione viene effettuata in base al modo in cui i numeri, sui quali opera la macchina, vengono in essa rappresentati.


IL METODO ANALOGICO

In una macchina analogica ogni numero è rappresentato da una opportuna grandezza fisica, il cui valore, misurato in una qualche unità prestabilita, è uguale al numero in questione. Questa quantità può essere data dall'angolo di rotazione di un certo disco o dall'intensità di una certa corrente elettrica o dal valore di una determinata tensione (relativa) ecc. Per consentire alla macchina di poter effettuare calcoli, ovvero di poter operare su questi numeri secondo un algoritmo predefinito, è necessario dotarla di organi (o componenti) che possano eseguire su queste quantità rappresentative le operazioni di base della matematica.


Le operazioni di base convenzionali

Per operazioni di base si intende generalmente le quattro tipologie di operazioni dell'aritmetica: addizione (l'operazione x + y), sottrazione (x - y), moltiplicazione (xy), divisione (x/y).

In tutta evidenza, non risulta difficile addizionare o sottrarre due correnti elettriche (facendole convergere in un nodo da direzioni parallele o antiparallele, rispettivamente). Moltiplicare (due correnti) risulta più complesso ma esistono vari tipi di componenti elettrici che sono in grado di eseguire questa operazione. Lo stesso vale per la divisione (di una corrente per un'altra). (Sia per la moltiplicazione sia per la divisione - ma non per l'addizione e la sottrazione - naturalmente è rilevante l'unità nella quale viene misurata la corrente.)

| << |  <  |  >  | >> |

Pagina 60

IL METODO DIGITALE

In una macchina digitale decimale ogni numero viene rappresentato esattamente come nella scrittura o nella stampa convenzionali, cioè come una sequenza di cifre decimali. Ogni cifra decimale, a sua volta, è rappresentata da un sistema di «simboli» o «marcatori».


Marcatori, loro combinazioni e loro traduzioni tecniche

Un marcatore che possa presentarsi in dieci forme differenti è sufficiente di per sé a rappresentare una cifra decimale. Un marcatore che possa presentarsi in due sole forme diverse dovrà essere utilizzato in modo che ogni cifra decimale corrisponda a un intero gruppo. (Un gruppo di tre marcatori a due valori consente 8 combinazioni e risulta inadeguato. Un gruppo di quattro marcatori a due valori consente 16 combinazioni e risulta più che sufficiente. Quindi per ogni cifra decimale devono essere utilizzati gruppi di almeno quattro marcatori. Ci potrebbero però essere alcune ragioni che richiedono l'utilizzo di gruppi più estesi, come si vedrà più avanti.) Un esempio di marcatore a dieci valori è un impulso elettrico che venga visualizzato in una di dieci linee prefissate. Un marcatore a due valori è un impulso elettrico su una sola linea prefissata tale che con la sua presenza o assenza possa trasportare l'informazione (il «valore» del marcatore). Un altro possibile marcatore a due valori è un impulso elettrico che possa avere polarità positiva o negativa. Ci sono, naturalmente, molti altri sistemi di marcatori altrettanto validi.

Farò un'ulteriore osservazione sui marcatori. Il suddetto marcatore a dieci valori coincide chiaramente con un gruppo di dieci marcatori a due valori, in altre parole, con un gruppo significativamente ridondante nel senso indicato prima. Entro lo stesso schema può anche essere introdotto il gruppo minimo, costituito da quattro marcatori a due valori. Si consideri un sistema di quattro linee prefissate in modo tale che impulsi elettrici (simultanei) possano apparire in qualunque combinazione. Ciò permette di avere 16 combinazioni, 10 qualsiasi delle quali possono essere assunte come corrispondenti alle cifre decimali.

Si noti che questi marcatori, che di solito sono impulsi elettrici (ma possono anche essere tensioni o correnti elettriche la cui durata varia tanto quanto serve perché la loro indicazione sia valida), devono essere controllati da dispositivi elettrici di filtro.


Tipologie di macchine digitali e loro componenti di base

Nel corso della loro evoluzione fino a oggi, sono stati utilizzati, nell'ordine, relè elettromeccanici, tubi a vuoto, diodi a cristallo, nuclei ferromagnetici e transistor – alcuni dei quali in combinazione con altri, alcuni di preferenza negli organi di memoria della macchina (cfr. sotto) e altri di preferenza all'esterno della memoria (negli organi «attivi») - dando luogo a molte differenti tipologie di macchine digitali.


Schemi in serie e in parallelo

Ora, un numero nella macchina è rappresentato da una sequenza di marcatori a dieci valori (o gruppi di indicatori), che possono essere fatti comparire simultaneamente in diversi organi della macchina - cioè in parallelo - oppure in successione temporale in un unico organo della macchina - cioè in serie. Se, poniamo, la macchina è costruita per gestire numeri decimali a dodici posizioni, per esempio sei posizioni «a sinistra» della virgola e sei posizioni «a destra», allora dovranno essere forniti dodici marcatori (o gruppi di marcatori) in ognuno dei canali di informazione della macchina che si intende utilizzare per il passaggio dei numeri. (Questo schema può essere reso più flessibile in vari modi e a vari livelli e in quanto tale può trovarsi in diverse macchine. Così, in quasi tutte, la posizione della virgola dei decimali è regolabile. Tuttavia, qui non mi addentrerò ulteriormente in tali questioni.)

| << |  <  |  >  | >> |

Pagina 84

CARATTERISTICHE DELLE MACCHINE DIGITALI MODERNE

Più complessa è l'organizzazione delle grandi macchine digitali. Esse sono costituite da organi «attivi» e da organi che hanno la funzione di «memoria». Anche se non è pratica comune, includeremo tra questi ultimi gli organi di «input» e di «output».

Gli organi attivi sono i seguenti. In primo luogo, gli organi che effettuano le operazioni logiche di base: ossia gli organi che rilevano coincidenze, producono combinazioni di impulsi e tendenzialmente rilevano anticoincidenze (non è necessario altro, per quanto a volte siano previsti anche organi per operazioni logiche più complesse). In secondo luogo, organi che rigenerano impulsi: ossia organi che sono in grado di ripristinare l'energia gradualmente dissipata dagli impulsi o semplicemente innalzano il loro livello energetico da quello presente in una parte della macchina a quello (superiore) presente in un'altra parte della macchina (per queste due funzioni si parla di amplificazione), e organi che sono in grado di ripristinare una desiderata forma o durata dell'impulso (entro una data tolleranza standardizzata). Si noti che le sopracitate operazioni logiche sono gli elementi con cui vengono costruite le operazioni aritmetiche (cfr. sopra).


Componenti attivi; questioni di velocità

Tutte queste funzioni sono state realizzate mediante, in ordine cronologico, relè elettromeccanici, valvole termoioniche, diodi a cristalli, nuclei ferromagnetici e transistor (cfr. sopra) o da vari piccoli circuiti che coinvolgono questi elementi. I relè consentirono di raggiungere velocità di circa 10^-2 secondi per azione logica elementare, le valvole termoioniche consentirono di migliorare questo valore fino a un ordine da 10^-5 a 10^-6 secondi (in casi estremi anche la metà o un quarto di 10^-6). Con l'ultimo gruppo di dispositivi, che collettivamente vengono chiamati dispositivi a stato solido, si raggiungono livelli di 10^-6 secondi (in alcuni casi un piccolo multiplo di questo valore), ma è probabile che si giunga a estendere l'intervallo di velocità fino a 10^-7 secondi per azione logica elementare o anche al di sotto. Altri dispositivi, di cui non voglio discutere in questa sede, potrebbero essere in grado di portarci oltre. Mi aspetto che entro un decennio avremo raggiunto un livello tra 10^-8 e 10^-9 secondi.


Numero di componenti attivi necessari

Il numero di organi attivi in una grande macchina moderna varia, a seconda del tipo, da circa 3000 a circa 30000. Entro questo gruppo, le operazioni aritmetiche di base sono di solito eseguite da un sottoinsieme di organi (o, meglio ancora, da un gruppo, più o meno integrato, di sottoinsiemi), il cosiddetto «organo aritmetico». In una grande macchina moderna tale organo è costituito, a seconda del tipo, da circa 300 a circa 2000 organi attivi.

| << |  <  |  >  | >> |

Pagina 91

PARTE SECONDA
Il cervello



La discussione sin qui condotta ha fornito le basi per poter effettuare il confronto a cui mira il presente lavoro. Ho descritto, con qualche dettaglio, la natura delle moderne macchine di calcolo e i princìpi generali alternativi in base ai quali possono essere organizzate. È ora possibile passare alla descrizione dell'altro termine di paragone, il sistema nervoso umano. Discuterò le analogie e le differenze tra questi due tipi di «automi». Far emergere le analogie ci porterà a percorrere un territorio tutto sommato ben noto. Vi sono però anche differenze, e non solo per quanto attiene aspetti piuttosto evidenti quali le dimensioni e le velocità ma anche aspetti che si trovano più in profondità e che coinvolgono i princìpi di funzionamento, di controllo e di organizzazione complessiva dei due sistemi. Il mio obiettivo primario è quello di sviluppare alcune di tali questioni. Tuttavia, al fine di poterle apprezzare nel modo migliore, è necessario fornirne una lettura in parallelo e in combinazione sia con gli elementi di similarità sia con le differenze più superficiali (dimensioni, velocità; cfr. sopra). La discussione dovrà quindi porre sufficiente enfasi anche su questi aspetti.


DESCRIZIONE SEMPLIFICATA DELLA FUNZIONE DI UN NEURONE

L'osservazione più immediata sul sistema nervoso è che il suo funzionamento è prima facie digitale. Fatto questo che è necessario discutere con un certo livello di approfondimento. Contestualmente verranno discusse le strutture e le funzioni su cui una tale affermazione si fonda.

Il componente di base di questo sistema è la cellula nervosa, il neurone, e la normale funzione di un neurone è quella di generare e propagare un impulso nervoso. Questo impulso è un processo piuttosto complesso e presenta una varietà di aspetti elettrici, chimici e meccanici. Tuttavia, dimostra di essere un processo definito in modo ragionevolmente univoco, cioè quasi sempre identico in tutte le condizioni, e rappresenta una risposta unitaria essenzialmente riproducibile a una gamma di stimoli piuttosto ampia.

Vorrei discutere ora con maggior dettaglio di questi aspetti dell'impulso nervoso, in particolare di quelli che sembrano risultare più rilevanti al nostro contesto.


LA NATURA DELL'IMPULSO NERVOSO

La cellula nervosa è costituita da un corpo da cui hanno origine, direttamente o indirettamente, uno o più rami chiamati assoni. L'impulso nervoso è una perturbazione continua che si propaga lungo l'assone, o meglio lungo ciascun assone, di solito a velocità costante (che può essere tuttavia funzione della cellula nervosa coinvolta). Come menzionato sopra, questa perturbazione della cellula può essere considerata sotto molteplici aspetti. Una delle sue caratteristiche centrali è il fatto che si tratta di un impulso elettrico ed è infatti così che viene più frequentemente descritta. Tale impulso è dato solitamente da un potenziale elettrico dell'ordine dei 50 millivolt e della durata di circa un millisecondo. In concomitanza con questa perturbazione elettrica, lungo l'assone hanno luogo anche modificazioni di natura chimica. In particolare, nel tratto lungo il quale sta transitando l'impulso di potenziale, cambiano la costituzione ionica del fluido intracellulare e le proprietà elettrochimiche (conducibilità, permeabilità) dell'involucro dell'assone, la membrana. Al livello delle terminazioni dell'assone, è ancora più evidente il carattere chimico di tali modificazioni; lì, nel momento in cui arriva l'impulso, fanno la loro comparsa alcune specifiche e caratteristiche sostanze. Infine, è probabile che si verifichino anche modificazioni di carattere meccanico. Anzi, è molto probabile che i cambiamenti delle varie permeabilità ioniche della membrana cellulare (cfr. sopra) possano avvenire solo grazie a un riorientamento delle sue molecole, cioè grazie a modifiche di carattere meccanico che coinvolgono le posizioni relative di tali costituenti.

Va aggiunto che tutti questi cambiamenti sono reversibili. In altre parole, una volta passato l'impulso, lungo l'assone e tutte le sue parti costituenti vengono ripristinate le condizioni iniziali.

Poiché tutti questi effetti si verificano su scala molecolare – si consideri che lo spessore della membrana cellulare è dell'ordine di pochi decimi di micron (cioè 10^-5 cm), cioè delle dimensioni delle grosse molecole organiche che vengono coinvolte in questi processi – le distinzioni di cui sopra tra effetti elettrici, chimici e meccanici non sono così nette come potrebbe sembrare a prima vista. Infatti, su scala molecolare, non vi è una chiara distinzione tra i vari tipi di cambiamenti: un'alterazione di carattere chimico è sempre indotta da una modifica nei valori delle forze intermolecolari che determinano cambiamenti nelle posizioni relative delle molecole, quindi in ultima analisi risulta anch'essa indotta meccanicamente. Inoltre, una tale modifica meccanica a livello intermolecolare altera le proprietà elettriche della molecola coinvolta, inducendo un cambiamento nei livelli relativi dei potenziali elettrici. Per riassumere: alle scale usuali (macroscopiche), i processi elettrici, chimici e meccanici rappresentano alternative tra le quali è possibile mantenere distinzioni nette. Tuttavia, a una scala prossima a quella molecolare caratteristica della membrana neuronale, tutti questi aspetti tendono a fondersi. Non sorprende, quindi, che l'impulso nervoso risulti essere un fenomeno che può essere studiato sotto uno qualsiasi di tali aspetti.

| << |  <  |  >  | >> |

Pagina 106

Sintesi dei confronti

Riassumiamo quanto osservato sinora. Emerge innanzitutto che l'importante fattore di confronto legato alle dimensioni vede i componenti naturali superare di un fattore di circa 10^8 ÷ 10^9 i corrispondenti componenti artificiali. Questo fattore è ottenuto sia calcolando il cubo dei rapporti tra le dimensioni lineari sia da un confronto diretto dei rispettivi volumi o delle rispettive energie dissipate. Di contro, dal punto di vista delle velocità, esiste un fattore di circa 10^4 ÷ 10^5 a favore dei componenti artificiali rispetto a quelli naturali.

A partire da queste valutazioni quantitative possono essere tratte alcune conclusioni. Naturalmente, occorre subito ricordare che la trattazione sin qui condotta si è mossa ancora alla superficie del problema e che quindi le conclusioni raggiunte in questa fase risulteranno soggette a una profonda revisione alla luce degli ulteriori progressi nella discussione. Vale comunque la pena, a questo punto, formulare alcune conclusioni. Sono le seguenti.

Primo: per quanto riguarda il numero di azioni che possono essere eseguite da organi attivi delle stesse dimensioni totali (definite in termini di volume o di dissipazione di energia) nello stesso intervallo di tempo, i componenti naturali superano di un fattore 10^4 quelli artificiali. Questo valore viene ricavato calcolando il quoziente dei due fattori di cui sopra, cioè il rapporto tra 10^8 ÷ 10^9 e 10^4 ÷ 10^5.

Secondo: gli stessi fattori mostrano come i componenti naturali prediligano automi con organi in numero maggiore ma più lenti, mentre quelli artificiali prediligano la disposizione opposta con organi in numero minore ma più veloci. Quindi è prevedibile che un automa naturale di grandi dimensioni ed efficientemente organizzato (come il sistema nervoso umano) tenderà a raccogliere il maggior numero possibile di elementi logici (o informativi) simultaneamente e a elaborarli simultaneamente, mentre un automa artificiale di grandi dimensioni ed efficientemente organizzato (come una grande macchina di calcolo moderna) è più probabile che esegua operazioni in successione — una alla volta o comunque non troppe alla volta. Cioè, i grandi ed efficienti automi naturali è molto probabile che siano altamente paralleli, mentre i grandi ed efficienti automi artificiali tenderanno a esserlo meno e a essere invece molto più seriali. (Cfr. alcune osservazioni precedenti sul confronto tra una disposizione in parallelo e una in serie.)

Terzo: occorre, tuttavia, segnalare che un principio di funzionamento in parallelo e uno in serie non sono sostituibili l'uno con l'altro senza limitazioni — come sarebbe necessario per garantire piena validità alla prima osservazione, con il suo semplice modello di quoziente tra il fattore di guadagno in termini di dimensioni e il fattore di perdita in termini di velocità al fine di ottenere una singola «cifra di merito» a quantificare l'efficienza dell'automa. Più specificamente, non tutto ciò che è seriale può essere immediatamente reso parallelo poiché alcune operazioni possono essere eseguite soltanto dopo l'esecuzione di certe altre e non contemporaneamente a esse (devono cioè utilizzare i risultati di queste ultime). In tal caso, il passaggio da un regime in serie a un regime in parallelo può essere impossibile o può essere possibile ma solo in concomitanza con una modifica dell'approccio logico e dell'organizzazione della procedura. Al contrario, il desiderio di serializzare una procedura in parallelo può imporre nuovi requisiti all'automa. Specificamente, quasi sempre porrà nuovi requisiti di memoria poiché i risultati delle operazioni che sono eseguite per prime devono essere immagazzinati mentre vengono eseguite le operazioni successive. Da tutto ciò è naturale aspettarsi che l'approccio logico e la struttura degli automi naturali differiscano notevolmente da quelli degli automi artificiali. Ed è anche probabile che i requisiti di memoria di questi ultimi si rivelino sistematicamente più severi di quelli dei primi.

Tutti questi punti di vista ritorneranno nella discussione che seguirà.

| << |  <  |  >  | >> |

Pagina 109

CRITERI DI STIMOLAZIONE


Criteri di stimolazione più semplici: criteri logici elementari

Possiamo ora rivolgere il nostro sguardo alle idealizzazioni e alle semplificazioni contenute nel quadro sopra fornito dei meccanismi di azione nervosa. È già stato osservato che tali idealizzazioni e semplificazioni esistono e che le loro implicazioni non sono affatto banali da valutare.

Come già evidenziato, l'output normale di un neurone è l'impulso nervoso standard. Tale impulso può essere indotto da varie forme di stimolazione, compreso l'arrivo di uno o più impulsi provenienti da altri neuroni. Altri possibili stimolatori sono fenomeni derivanti dal mondo esterno ai quali un particolare neurone è specificamente sensibile (luce, suono, pressione, temperatura) e cambiamenti di natura fisica e chimica che hanno luogo all'interno dell'organismo nel punto in cui si trova il neurone. Inizierò considerando la prima forma citata di stimolazione — quella indotta da altri impulsi nervosi.

Ho osservato prima che questo particolare meccanismo — la stimolazione di impulsi nervosi da parte di opportune combinazioni di altri impulsi nervosi — rende il neurone paragonabile a un tipico organo attivo digitale di base. Approfondiamo ulteriormente questo aspetto. Se un neurone entra in contatto con gli assoni di altri due neuroni (tramite le loro sinapsi) e se il requisito minimo di stimolazione (per provocare un impulso di risposta) è la presenza di due impulsi (simultanei) in ingresso, allora questo neurone agisce di fatto come un organo et (and, in inglese) ed esegue l'operazione logica di congiunzione (tradotta da una e) poiché risponde solo quando i suoi stimolatori sono entrambi (simultaneamente) attivi. Se, invece, il requisito minimo è semplicemente l'arrivo di (almeno) un impulso, il neurone agisce come un organo vel (or, in inglese) - cioè esegue l'operazione logica di disgiunzione (tradotta da una o) poiché risponde quando uno qualunque dei suoi stimolatori è attivo (o entrambi).

E e o sono le operazioni di base della logica e unitamente al non (l'operazione logica di negazione) rappresentano un insieme completo di operazioni logiche di base. Tutte le altre operazioni logiche - non importa quanto complesse siano - possono essere ottenute da opportune loro combinazioni. Non discuterò qui come i neuroni siano in grado di simulare anche l'operazione logica di negazione o con quali trucchi si possa del tutto evitare l'uso di questa operazione. Quanto detto dovrebbe bastare a chiarire ciò che è già stato messo in evidenza in precedenza, cioè che i neuroni, quando interpretati da questo punto di vista, appaiono come organi logici di base - e quindi anche come organi digitali di base.

| << |  <  |  >  | >> |

Pagina 117

IL PROBLEMA DELLA MEMORIA NEL SISTEMA NERVOSO

Le discussioni sin qui condotte non hanno preso in considerazione una componente la cui presenza nel sistema nervoso è fortemente plausibile, per non dire acquisita — se non altro per aver giocato un ruolo fondamentale in tutte le macchine di calcolo artificiali costruite fino a oggi, e il suo significato è quindi con ogni probabilità una questione di principio piuttosto che un fatto accidentale. Mi riferisco alla memoria. Quindi, passerò ora alla discussione di questa componente del sistema nervoso o, per meglio dire, di questo sottoinsieme dell'intero sistema.

Come già detto, la presenza di una memoria — o, più plausibilmente, di diverse memorie — all'interno del sistema nervoso è una questione di congetture e di supposizioni, suggerite e supportate però da tutta la nostra esperienza nel campo degli automi di calcolo artificiali. Vale la pena ammettere fin dall'inizio che tutte le affermazioni circa la natura fisica, l'identificazione e la localizzazione di questo sottoinsieme o di questi sottoinsiemi risultano altrettanto ipotetiche. Non sappiamo dove risieda la memoria, in quale porzione fisica del sistema nervoso abbia sede; non sappiamo se si tratti di un organo separato o di una raccolta di parti specifiche di altri organi noti ecc. Potrebbe benissimo risiedere in un sistema di nervi specifici, che dovrebbe quindi avere dimensioni piuttosto grandi. Potrebbe anche avere a che fare con qualche meccanismo genetico del corpo. Sulla sua natura e sulla sua posizione siamo tanto ignoranti quanto lo erano i greci, che collocavano nel diaframma la sede della mente. L'unica cosa che sappiamo è che deve essere una memoria di capacità piuttosto grande e che è difficile immaginare come un sistema di calcolo così complesso come il sistema nervoso umano possa farne a meno.

| << |  <  |  >  | >> |

Pagina 131

LA STRUTTURA LOGICA DEL SISTEMA NERVOSO

A questo punto, è bene indirizzare la discussione verso un altro genere di problemi. Si tratta, come ho già avuto modo di sottolineare in precedenza, di questioni non collegate ai problemi della memoria o alla scrittura dei codici brevi o completi appena considerati. Tali problemi riguardano piuttosto i rispettivi ruoli della logica e dell'aritmetica nel funzionamento di un qualsiasi automa complesso e, nel caso specifico, del sistema nervoso.


Importanza delle procedure numeriche

Il punto centrale della questione è il seguente ed è di enorme importanza. Qualsiasi automa artificiale che sia stato costruito per uso umano, e precisamente per il controllo di processi complicati, possiede di norma una parte puramente logica e una parte aritmetica, cioè una parte in cui i processi aritmetici non svolgono alcun ruolo e una in cui tali processi sono fondamentali. Ora, alla luce delle nostre abitudini di pensiero e delle sue forme di espressione, ciò si può spiegare con il fatto che ci risulta assai difficile esprimere qualsiasi situazione davvero complicata senza ricorrere a formule e numeri.

Così, se un progettista umano dovesse concepire un automa la cui funzione sia quella di governare problemi complessi — per esempio problemi di termoregolazione corporea o di invarianza di determinate pressioni o di equilibri chimici all'interno del corpo umano — egli definirebbe inevitabilmente tale funzione in termini di uguaglianze o disuguaglianze numeriche.


Interazione delle procedure numeriche con la logica

D'altra parte, vi sono aspetti di tale funzione che possono essere formulati senza far riferimento a rapporti numerici, cioè tali da potersi esprimere in termini puramente logici. Per esempio, alcuni princìpi qualitativi che coinvolgono una risposta o una non-risposta di carattere fisiologico possono essere enunciati senza ricorrere a numeri e limitandosi ad affermare qualitativamente sotto quali combinazioni di circostanze certi eventi devono avere luogo e sotto quali combinazioni non si vuole che abbiano luogo.


Ragioni per aspettarsi requisiti di alta precisione

Queste osservazioni mostrano come il sistema nervoso, se visto come un automa, debba assolutamente avere una componente aritmetica oltre che una componente logica e come in esso i requisiti aritmetici siano tanto importanti quanto quelli logici. Questo significa che siamo di nuovo di fronte a una macchina di calcolo in senso stretto e che dunque risulta appropriata una sua descrizione in termini dei concetti familiari della teoria delle macchine di calcolo.

In considerazione di ciò, si presenta immediatamente la domanda seguente: se si guarda al sistema nervoso come a una macchina di calcolo, con quale precisione ci si aspetta debba funzionare la sua componente aritmetica?

| << |  <  |  >  | >> |

Pagina 138

IL LINGUAGGIO DEL CERVELLO NON È IL LINGUAGGIO DELLA MATEMATICA

Ulteriori approfondimenti dell'argomento in oggetto conducono necessariamente a questioni di linguaggio. Come osservato, il sistema nervoso si basa su due tipologie di comunicazione: vi sono comunicazioni che non coinvolgono formalismi aritmetici e comunicazioni che li coinvolgono. Sono, nell'ordine, le comunicazioni (logiche) che trasmettono comandi e le comunicazioni (aritmetiche) che trasmettono numeri. Le prime possono essere descritte come un linguaggio proprio, le seconde possono essere ricondotte alla matematica.

È opportuno comprendere che il linguaggio è in gran parte un fatto storico accidentale. I linguaggi umani fondamentali ci vengono tradizionalmente trasmessi in varie forme e la loro stessa molteplicità dimostra che in essi non vi è nulla di assoluto e necessario. Lingue come il greco o il sanscrito sono fatti storici e non necessità logiche assolute. Allo stesso modo è ragionevole supporre che persino la logica e la matematica siano forme di espressione altrettanto storiche e accidentali. Possono presentare varianti radicalmente differenti, possono esistere cioè in forme completamente diverse da quelle a cui siamo abituati. In verità, è proprio la natura del sistema nervoso centrale e dei sistemi di messaggi che esso trasmette a indicarci che le cose stiano effettivamente così. A oggi abbiamo accumulato prove sufficienti per affermare che, qualunque sia il linguaggio effettivamente utilizzato dal sistema nervoso centrale, esso sia caratterizzato da una minore profondità logica e aritmetica rispetto a quella cui siamo normalmente abituati. Un esempio evidente di questo fatto è il seguente: la retina dell'occhio umano svolge una notevole azione di riorganizzazione dell'immagine visiva percepita dall'occhio. Ora, questa riorganizzazione avviene sulla retina o, per essere più precisi, in corrispondenza del punto di ingresso del nervo ottico per mezzo di tre sole sinapsi successive, vale a dire in termini di tre passaggi logici consecutivi. Il carattere statistico del sistema di comunicazione utilizzato nell'aritmetica del sistema nervoso centrale e la sua bassa precisione indicano anche che il deterioramento della precisione, descritto in precedenza, non può superare un certo livello nei sistemi di comunicazione coinvolti. Di conseguenza, devono esistere qui strutture logiche diverse da quelle a cui siamo normalmente abituati e a cui facciamo riferimento in logica e in matematica e, come sottolineato prima, devono essere caratterizzate da una minore profondità logica e aritmetica rispetto ad altre circostanze simili a noi familiari. Dunque, la logica e la matematica del sistema nervoso centrale, se interpretate come linguaggi, devono essere strutturalmente ed essenzialmente diverse da quei linguaggi a cui la nostra esperienza comune fa riferimento.

Occorre notare, inoltre, che il linguaggio di cui stiamo parlando potrebbe corrispondere a un codice breve, nel senso descritto in precedenza, e non a un codice completo: quando parliamo della matematica, potrebbe essere che stiamo discutendo di un linguaggio secondario, costruito sul linguaggio primario realmente utilizzato dal sistema nervoso centrale. In tal modo, le forme esteriori della nostra matematica non avranno assolutamente alcuna rilevanza dal punto di vista della valutazione di quale realmente è il linguaggio matematico o logico utilizzato dal sistema nervoso centrale. Tuttavia, le precedenti osservazioni circa l'affidabilità e la profondità logica e aritmetica dimostrano che, qualunque sia tale linguaggio, esso non può non differire notevolmente da ciò che consapevolmente ed esplicitamente pensiamo sia la matematica.

| << |  <  |