Copertina
Autore Pippo Battaglia
Titolo L'intelligenza artificiale
SottotitoloDagli automi ai robot «intelligenti»
EdizioneUTET Libreria, Torino, 2006 , pag. 208, cop.fle., dim. 152x230x17 mm , Isbn 978-88-02-07260-9
PrefazioneMargherita Hack
LettoreCorrado Leonardo, 2006
Classe storia della tecnica , storia della scienza , informatica: fondamenti , scienze cognitive , intelligenza artificiale
PrimaPagina


al sito dell'editore


per l'acquisto su IBS.IT

per l'acquisto su BOL.IT

per l'acquisto su AMAZON.IT

 

| << |  <  |  >  | >> |

Indice


VII Prefazione
  3 Introduzione
 14 Ringraziamenti

 19 Prima parte  Gli automi e i calcolatori


 21 1. Antichi automi

       Antichi marchingegni semoventi, p. 23
       Origine delle cose, p. 25
       Gli attrezzi, p. 29
       I prototipi degli automi, p. 30
       I primi automi, p. 32
       I numeri, p. 35

 39 2. Automa, automatismo e automazione

       Gli automi, p. 40
       I primi calcolatori, p. 43
       Il «meccanismo di Anticitera», p. 45
       Il planetario di Archimede, p. 47

 55 3. L'uomo artificiale

       L'astrario di Giovanni de Dondi, p. 56
       L'automa di Leonardo da Vinci, p. 59
       L'uomo artificiale, p. 60
       La leggenda del Golem, p. 62
       Gli automi di Cartesio, p. 64

 71 4. Anima macchine e calcolatori

       Julien Offray de La Mettrie, p. 72
       John Napier e Jost Brgi, p. 75
       Wilhelm Schickard, p. 77
       La calcolatrice di Blaise Pascal, p. 78
       Gottfried Wilhelm Leibniz, p. 80
       L'aritmetica binaria di Leibniz e
            il libro I Ching, p. 83

 87 5. L'era delle macchine

       Rivoluzione industriale, urbanizzazione
            e le fabbriche, p. 89
       Herman Hollerith, p. 92
       Il termine robot, p. 93
       Industrie e fabbriche, p 98

101 Seconda parte  I robot e l'intelligenza artificiale


103 6. Il cervello artificiale

       Enigma, p. 108
       Artificial Intelligence, p. 110
       Il test di Turing, p. 112
       John (Janos) von Neumann, p. 116
       ENIAC, p. 117
       La teoria dei giochi, p. 119
       Automi cellulari, p. 122

125 7. La prima rete neurale

       Il Perceptron e altre reti neurali, p. 129
       L'era della cibernetica, p. 132
       Il convegno del 1956 al Dartmouth college, p. 135
       Cenni sul connessionismo, p. 138
       Cenni sul cognitivismo, p. 142

145 8. Sistemi esperti

       Sistemi di produzione, p. 148
       Logica fuzzy, p. 149
       Il computer quantistico, p. 153
       I biocomputer, p. 156

161 9. Cervelli diversi

       La coscienza, p. 164
       Ricerche sull'origine della coscienza, p. 167
       Coscienza artificiale, p. 169
       I microtubuli, p. 173
       Darwinismo neurale, p. 176
       La coscienza: un enigma insoluto, p. 182

187 10. Robotica

        I robot, p. 192
        La roboetica, p. 195

201 Bibliografia



 

 

| << |  <  |  >  | >> |

Pagina 3

Introduzione

di Pippo Battaglia


Mi propongo di considerare la domanda «Le macchine possono pensare?». Si dovrebbe cominciare col definire il significato dei termini «macchina» e «pensare». Le definizioni potrebbero essere formulate in modo da riflettere al massimo grado l'uso normale di queste parole, ma in ciò vi sono dei pericoli. Se il significato delle parole «macchina» e «pensare» è da ricavarsi in base al loro uso comune, è difficile sfuggire alla conclusione che per scoprire il significato e la risposta alla domanda «Le macchine possono pensare?» si debba ricorrere a un'indagine statistica, come può esserlo un sondaggio Gallup. Il che è assurdo. Invece di tentare di dare una definizione del genere, sostituirò quella domanda con un'altra, che è strettamente connessa alla prima ed è espressa con parole relativamente non ambigue.

La nuova forma del problema può essere descritta ricorrendo a un gioco che chiameremo «gioco dell'imitazione». Vi sono tre giocatori: un uomo (A), una donna (B) e un interrogante (C), che può essere dell'uno o dell'altro sesso. L'interrogante sta in una stanza da solo, separato dagli altri due. Scopo del gioco per l'interrogante è quello di determinare quale delle altre due persone sia l'uomo e quale la donna. Egli le conosce tramite le etichette X e Y , e alla fine del gioco dirà «X è A e Y è B», oppure «X è B e Y è A». L'interrogante ha facoltà di porre ad A e a B domande del tipo, C: X, vuole dirmi per favore quanto sono lunghi i suoi capelli. Ora, supponendo che X sia A, è A che deve rispondere. Scopo di A nel gioco è quello d'ingannare C e d'indurlo a sbagliare l'identificazione.

La sua risposta quindi potrebbe essere: «Ho i capelli pettinati alla maschietta e le ciocche più lunghe sono circa venti centimetri». Per evitare che il tono della voce possa aiutare l'interrogante, le risposte dovrebbero essere scritte, o meglio ancora battute a macchina. La soluzione migliore sarebbe quella di collegare le due stanze con una telescrivente. Oppure le domande e le risposte potrebbero essere riportate da un intermediario. Scopo del gioco per il terzo giocatore (B) è quello di aiutare l'interrogante. Probabilmente la strategia migliore per B, cioè per la donna, è di dare risposte veritiere. Essa può aggiungere alle sue risposte frasi del tipo: «Sono io la donna, non dargli ascolto!»; ma ciò non approderà a nulla, dato che anche l'uomo può fare osservazioni analoghe. Ora chiediamoci: «Che cosa accadrà se in questo gioco una macchina prenderà il posto di A?». L'interrogante sbaglierà altrettanto spesso come nel caso di quando il gioco è effettuato fra un uomo e una donna? Questi quesiti sostituiscono la nostra domanda originaria: «Le macchine possono pensare?»


Alan Turing inizia con queste frasi il suo articolo On Computing Machinery and Intelligence pubblicato dalla rivista «Mind» nel 1950. Un articolo che pose un preciso quesito: «Le macchine possono pensare?» A questa domanda ancora oggi non vi è una risposta che in termini assoluti neghi questa possibilità alle macchine. Attualmente si costruiscono sofisticate reti neurali che interagiscono con noi e l'habitat e che potrebbero avere una, seppur minima, coscienza che noi non riusciamo a cogliere. Ed è probabile che la causa principale per cui non l'avvertiamo è dovuta al fatto che non sappiamo definire né la coscienza e neppure l'intelligenza.

Nonostante filosofi e scienziati abbiano tentato di trovare un paradigma con cui racchiudere tutte le peculiarità della nostra mente per dare una definizione completa dell'intelligenza non sono mai riusciti a determinarla compiutamente. Si è cercato di indicare dei parametri con cui connotare l'intelligenza ma quasi tutti risultano imprecisi ed ambigui. Sicché assegnare l'attributo «intelligente» ad una macchina è anche un modo aleatorio di definirne le sue peculiarità. La fantascienza, nel suo aspetto più comune di letteratura fantastica e nella forma più spettacolare di film, ci ha ormai abituati ad un mondo irreale dove le macchine hanno dei sentimenti e un'intelligenza spesso superiore alla nostra. I robot, tratteggiati da molti scrittori e registi, hanno emozioni e personalità affini a quelle umane. Sono protagonisti di storie dove tutta la variegata gamma di emozioni che li caratterizzano sono amplificate ed esasperate. Dotati di coscienza e intelligenza in molti films e romanzi combattono gli umani e frequentemente li soggiogano. In altri, pochi in verità, sono nostri alleati. In tal modo si è creato nell'immaginario collettivo una variegata invasione di robot intelligenti, ricchi di peculiari facoltà intellettive e finanche dotati della capacità di autogenerarsi.

In questo poliedrico e chimerico mondo fantascientifico vi sono, dunque, robot buoni e robot cattivi. Matrix è a tutti gli effetti l'erede più evoluto di Frankenstein. L'archetipo dei robot cattivi. Nato dalla fervida immaginazione di Mary Shelley, Frankenstein è l'antesignano dei marchingegni che prendono coscienza di esistere e si ribellano al loro creatore. Su quest'idea si sono inventati dei robot pensanti, dotati di raffinata «intelligenza», protagonisti di storie fantascientifiche che ci attraggono nella stessa misura in cui ci atterriscono. Questi racconti irreali, in cui si accentua la potenza della loro intelligenza artificiale, hanno insinuato, a livello inconscio, una sorta di diffidenza verso tutte le apparecchiature che hanno, seppur controllabili, delle facoltà decisionali. Di conseguenza proviamo sentimenti ed emozioni d'inquietudine nei confronti dell'evoluzione delle scienze su cui si fonda l'intelligenza artificiale. Forse sono queste le cause più comuni che scatenano in quasi tutti la sindrome di Frankenstein. Caratterizzata da una strana e sottile inconscia paura verso i robot che sono considerati dei veri e propri «esseri» che all'improvviso possono prendere coscienza di esistere. E a nulla serve la consapevolezza che in fin dei conti si tratta di macchine che possiamo sempre bloccare staccando la classica «spina». probabile che in noi abbia il sopravvento quell'ancestrale paura, per altro assai generalizzata, che è la vera essenza della sindrome di Frankenstein, di assistere a quel che più temiamo: vedere una macchina divenire indipendente dal creatore.

I robot ancora non sono commercializzati nella stessa misura in cui oggi sono venduti i computer. Ma già adesso i computer, che con altre configurazioni e software sono le componenti (la più rilevante) dei robot, emanano un fascino discreto e nel contempo incisivo. Sicché quando si pensa ad un computer, e in particolare al proprio computer, è diffusa l'idea d'immaginarlo come un vero e proprio «essere» e non come un oggetto prodotto in serie. E sempre più spesso non lo si identifica con una macchina. Senza rendercene conto dotiamo i computer di un'indefinibile affascinante soggettività. Individualità che nella realtà non posseggono. E che in effetti è la proiezione di ciò che queste macchine rappresentano per noi. I computer, nonostante si costruiscano e si vendano da decenni, soltanto da pochi anni sono diventati molto comuni. E in poco tempo stanno cambiando il nostro modo di vivere. inutile nascondere che, forse per nostra natura, nel corso dei secoli ci hanno sempre preoccupato tutte le innovazioni che la scienza propone. Nel diciannovesimo secolo quando la ricerca scientifica iniziò a indagare i «segreti della vita» ottenendo dei successi non paragonabili a quelli attuali incominciò a serpeggiare tra filosofi, credenti, e finanche tra gli stessi scienziati una sottile diffidenza verso i pericoli impliciti nell'analizzare le leggi naturali. Le implicazioni di tali ricerche furono denunciate da un'enorme mole di articoli e saggi di coloriture diverse che comunque focalizzavano l'attenzione sui pericoli dei progressi della scienza.

[...]

L'arte del calcolo si avvalse per millenni di un semplice strumento tutt'oggi ancora in uso: l'abaco. Nel 1642 comparve la prima calcolatrice. La progettò Blaise Pascal. Nel 1673 Leibniz presentò alla Royal Society un suo progetto per realizzare una macchina calcolatrice con la quale si potevano eseguire le quattro operazioni. Nel XIX secolo due inglesi, Babbage e Boole, elaborarono i principi fondamentali sui quali si basano tuttora i moderni computer. Charles Babbage costruì due macchine calcolatrici che precorrevano i tempi, una differenziale e l'altra analitica. Il calcolatore meccanico differenziale, che fu realizzato nel 1823, eseguiva calcoli sino all'ottava cifra decimale. Si deve a George Boole, logico e matematico inglese, lo strumento concettuale che sta alla base del funzionamento del calcolatore e che, in suo onore, fu denominata algebra booleana. Nel 1936, A. Turing descrisse l'attività di macchine a stati discreti. Affermò che tutte queste macchine sono equivalenti ad una macchina ideale da lui definita «macchina universale». Quest'ultima è l'antesignana degli attuali computer in quanto si distingue dalle calcolatrici per il fatto che si poteva programmare. L'idea fondamentale alla base dei computer è che qualsiasi tipo di risultato si ottiene tramite manipolazioni di simboli (ne sono sufficienti soltanto due) che sottostanno ad un insieme di regole (algoritmo). Il metodo di programmazione di Turing utilizzava semplici istruzioni.

Nel 1950 pubblicò sulla rivista «Mind» un articolo intitolato Macchine, calcolatrici ed intelligenza. In quel pezzo delinea un nuovo test. Turing si chiede: nel momento in cui un risultato non si riesce a distinguere se lo si è ottenuto da una macchina oppure da un essere umano, nel caso si fosse raggiunto per mezzo di una macchina, si può affermare che essa sia intelligente? Il test divenuto noto come «Test di Turing» sino ad oggi non è stato superato da nessuna macchina. Soltanto il computer Al 9.000, protagonista del famoso film 2001 odissea nello spazio, ne ha avuto ragione: ma sino a quando le macchine soltanto in una realtà fantascientifica supereranno il test di Turing?

Trascorsero sei anni dalla pubblicazione dell'articolo di Turing e in occasione di un corso universitario tenutosi al Dartmouth College in Inghilterra furono resi noti i programmi manifesto di una nuova disciplina scientifica, che proprio in quell'occasione fu definita «Intelligenza Artificiale» da John McCarthy. Subito dopo il corso di Dartmouth, Marvin Minsky propose come programma per lo sviluppo dell'intelligenza artificiale la progettazione di macchine che imitassero le funzioni del cervello in termini di manipolazioni e di espressioni simboliche. Dal punto di vista di Minsky la natura del cervello non si rivela dalla sua struttura o dal suo funzionamento biologico, ma dalle sue opere.

In questo clima si tratteggiarono le basi della cosiddetta «Ipotesi forte» dell'intelligenza artificiale. In questa teoria si ritiene che l'intelligenza umana sia l'espressione di calcolo e manipolazione di simboli di un sistema formale definito, eseguiti secondo regole meccaniche prestabilite. Tutte le emozioni, sensazioni, sono generati dalla mente che recepisce informazioni dall'ambiente esterno, e le elabora in modo autonomo utilizzando propri «algoritmi» che permettono di provare adeguate risposte agli stimoli esterni. Si sostiene pure che l'intelligenza artificiale possa simulare i comportamenti intelligenti degli esseri umani in quanto la manipolazione dei simboli avviene sia nelle macchine e sia nelle menti. In tale prospettiva pensare equivale a calcolare. La mente è uguale ad un computer. Dunque, contrariamente a quanto affermava Pascal, in molti, nei primi anni Sessanta, erano certi che «l'esprit de géometrie» generasse i nostri pensieri.

L'idea di realizzare le prime reti, quelle neurali, ancora oggi poco conosciute, risale al 1943. Fu in quell'anno che W. S. McCulloch e W. Pitts. pubblicarono l'articolo A logical Calculus of Ideas Immanent in Nervous Activity, in cui tratteggiavano la «teoria delle reti neurali». In quel pezzo dimostravano come si possa descrivere un modello dell'attività dei neuroni nei termini del calcolo delle proposizioni dell'algebra booleana. Sulla base di quell'articolo si aprì un nuovo fronte di ricerca: il connessionismo. Fondato sulla certezza che le funzioni cerebrali siano il risultato d'interconnessioni e non di sequenze lineari. S'idearono macchine con sistemi d'elaborazione più vicine al linguaggio comune, giacché le capacità cognitive della mente dipendono anche dai processi di relazione. Si realizzarono macchine in grado di simulare alcune facoltà naturali della mente, di riconoscere le voci e di vedere.

A Gerald M. Edelman premio Nobel per la Fisiologia e la Medicina, si deve la teoria del «darwinismo neurale». Edelman tenta di chiarire il funzionamento del cervello. Utilizza il termine «darwinismo» per meglio sottolineare che nel cervello, attimo dopo attimo, operano dei meccanismi di «selezione» a livello molecolare, cellulare e anatomico. Quella di Edelman è una vera e propria teoria «evolutiva». Sostiene che il cervello muta ed evolve di continuo in base a fattori genetici e ambientali. Tutte le popolazioni neurali sono sottoposte ad una selezione. In tal modo soltanto le migliori, in termini evoluzionistici le più «adatte», sopravvivono e continuano ad evolversi. Edelman ritiene che si possa simulare il cervello naturale mediante reti neurali tra loro in competizione, riproducendo, nella soluzione dei problemi, il processo di evoluzione naturale del cervello. Lo studio delle entità intelligenti e il loro interagire con l'ambiente fu definito, nel 1978 durante una conferenza tenutasi a La Jolla in California, «Cognitive Science».

[...]

Analizzando come avviene l'apprendimento nei robot si potrebbero trovare delle risposte ad alcuni quesiti ancora senza soluzione su come il cervello umano sviluppi la capacità di comprendere il mondo che lo circonda e, forse, su come si formi la coscienza. Per ottenere questi risultati dallo studio dello «sviluppo mentale autonomo» si dovranno necessariamente costruire, anche sperimentalmente, dei robot forniti di un cervello dotato d'intelligenza artificiale. Si realizzeranno dei robot in grado di pensare e di agire come un essere umano. Ma nel momento in cui affermiamo che saranno «come un essere umano» non vuol dire che saranno perfettamente identici a noi. Non sappiamo, né possiamo prevedere, come ragioneranno queste «macchine», come si rapporteranno con gli uomini e la nostra civiltà e che ruoli avranno nella nostra società. E considerato che saranno capaci di pensare non abbiamo idea di quali rapporti si potranno instaurare tra noi e loro. Davanti a queste prospettive, scienziati e filosofi, si preoccupano soprattutto di come saranno utilizzati. Ma vi sono tanti altri aspetti di questo esperimento scientifico che vanno vagliati attentamente. Giacché in realtà non è un comune esperimento scientifico, ma qualcosa di diverso, mai tentato prima, che ci trasforma da creature create da un dio increato, da noi descritto e immaginato, in creatori di esseri artificiali capaci di comprendere di esistere e dunque vivi.

| << |  <  |