Copertina
Autore Tomás Maldonado
Titolo Memoria e conoscenza
SottotitoloSulle sorti del sapere nella prospettiva digitale
EdizioneFeltrinelli, Milano, 2005, Campi del sapere , pag. 312, cop.fle., dim. 142x220x20 mm , Isbn 978-88-07-10385-8
LettoreLuca Vita, 2005
Classe sociologia , psicologia , informatica: sociologia , scienze cognitive , scrittura-lettura , teoria letteraria
PrimaPagina


al sito dell'editore


per l'acquisto su IBS.IT

per l'acquisto su BOL.IT

per l'acquisto su AMAZON.IT

 

| << |  <  |  >  | >> |

Indice

  9 Prefazione

 15 1. Identità personale e memoria
 49 2. Parlare, scrivere, leggere
 82 3. Memoria a occhio nudo
122 4. Memoria in laboratorio: definizioni, paradigmi, modelli
145 5. Memoria e luoghi dell'abitare
182 6. Computer, infanzia e sviluppo cognitivo
200 7. Pensare la tecnica, oggi



    Appendice
227 8. Gli occhiali presi sul serio
239 9. Sulla scrittura stereotipica e antistereotipica


249 Bibliografia
299 Indice dei nomi

 

 

| << |  <  |  >  | >> |

Pagina 9

Prefazione


L'argomento discusso in questo saggio ruota intorno alla seguente domanda: nel tipo di società che si va oggi configurando, una società in cui il compito di elaborare, accumulare e reperire informazione dovrebbe svolgersi prevalentemente in rete e tramite il computer, quale sarà il futuro della memoria e del sapere? In breve, un cambiamento tanto radicale contribuirà in avvenire a un potenziamento o a un depotenziamento della nostra capacità individuale e collettiva di ricordare e di conoscere?

In pratica, il libro qui proposto è la continuazione di due altri da me precedentemente pubblicati da Feltrinelli (Reale e virtuale, 1992 e 2005, e Critica della ragione informatica, 1997). Una sorta dunque di trilogia il cui denominatore comune è il tentativo di misurarsi con l'impatto sociale, politico e culturale che le nuove tecnologie dell'informazione e delle telecomunicazioni possono avere nel futuro. Nel caso specifico, si cerca di scorgere gli effetti destabilizzanti che dette tecnologie hanno (o possono avere) sulle pratiche quotidiane del parlare, dell'ascoltare, dello scrivere e del leggere e, pertanto, la loro influenza, positiva o negativa, sulla memoria e sull'acquisizione del sapere.

È ovvio però che nella trattazione del tema non si può, come spesso accade tra gli attuali esponenti della ricerca empirica sull'argomento, trascurare i contributi, di sicuro speculativi ma talvolta fortemente anticipatori, dei pensatori che, nel passato, hanno cercato di indagare sulla natura (e funzione) della memoria.

Per questo motivo, ho voluto documentare tali contributi, soprattutto quelli in cui, ante litteram, sono state avanzate ipotesi interpretative al centro di molti degli attuali programmi di ricerca scientifica sui meccanismi del ricordo e dell'oblio.

D'altra parte, però, mi è sembrato necessario familiarizzare il lettore, pur a livello divulgativo, con le nozioni più frequenti nell'ambito della ricerca scientifica della memoria, ma anche di presentare le grandi questioni controverse e mettere in evidenza i problemi insoluti che non sono pochi.

Benché sulla memoria si sappia ora complessivamente più di quanto si sapesse cinquant'anni fa, la verità è che alcuni grandi quesiti, forse i più importanti, rimangono senza risposta. C'è infatti un evidente divario tra le conoscenze ormai acquisite su molti aspetti particolari dei processi mnestici (per esempio, l'individuazione delle aree cerebrali coinvolte) e la nostra impossibilità di spiegare come, e con quali mezzi, tali aspetti si integrano in unità funzionali più vaste e composite.

Nelle questioni relative all'impatto delle nuove tecnologie sulla memoria si constata un simile divario. Da un lato, l'importanza che ovviamente sta assumendo l'uso del computer e del suo indotto comunicativo (internet, videoscrittura, e-mail, news-groups, mud ecc.), dall'altro, la pressoché assoluta carenza di una riflessione adeguata sulle conseguenze non soltanto sulla sfera mnestica, ma anche su quella del linguaggio, della percezione audiovisiva e delle capacità intellettive. Senza contare quella dell'educazione.

Pur ammettendo tali incertezze e carenze, avanzo l'ipotesi che, in un futuro non molto lontano, l'assetto della memoria umana, come risultato appunto della diffusione massiccia dei mezzi informatici, possa essere destinato a notevoli cambiamenti.

Ogni volta che, nel passato, si è verificata una forte novità tecnica nel campo della comunicazione essa ha fatto sentire, prima o poi, la sua influenza sulla nostra memoria.

In realtà, già da molto si sostiene — soprattutto da parte di antropologi, linguisti e storici — che il meccanismo umano del ricordo e dell'oblio non sia immutabile, e che l'evoluzione delle tecniche di comunicazione debba essere annoverata tra i principali fattori di mutamento. Un assunto, d'altra parte, che i neurobiologi potrebbero sicuramente sottoscrivere, in particolare se si tiene presente la loro teoria della plasticità cerebrale nei confronti delle sollecitazioni che provengono dall'ambiente.

In breve: se è vero, come sembra, che l'avvento dell' Homo scribens abbia contribuito a cambiare in non pochi aspetti la memoria dell' Homo oralis, è più che legittimo congetturare che con l'avvento dell' Homo digitalis possa accadere lo stesso nei confronti della memoria dell' Homo scribens.

| << |  <  |  >  | >> |

Pagina 64

Vediamo ora quali sono, nello specifico, gli aspetti della scrittura tradizionale che vengono più sovente ritenuti negativi dai teorici della scrittura elettronica:

a) linearità descrittiva monodirezionale del flusso narrativo o argomentativo;

b) consequenzialità logica, legame tra premesse e conclusione, tra antecedente e conseguente, tra soggetto e predicato;

c) compiutezza, il testo ha un inizio e una fine;

d) chiusura, il testo è sigillato, non ammette interventi del lettore o di un altro autore, neppure rapporti con altri testi non previsti dall'autore nella stesura originaria.

In contrasto, la scrittura elettronica definisce i suoi propri aspetti positivi in termini di non-linearità, non-consequenzialità, non-compiutezza e non-chiusura.

Bastano queste due opposte caratterizzazioni per capire appieno l'oggetto in discussione? No, certamente. Pur ammettendo che esse, in astratto, sintetizzano molto bene la differenza tra i due tipi di scrittura, si rivelano invece troppo generiche, e talvolta persino poco convincenti, quando si passa ad esaminarle in concreto. La prima cosa che colpisce è che gli studiosi in questione non tengono conto della diversità dei contesti a cui tali caratterizzazioni fanno riferimento. Si privilegiano, per esempio, i testi letterari, in particolare di narrativa, mentre quelli di saggistica (filosofici, storici e scientifici) vengono solo marginalmente esaminati. Il che forse si spiega, almeno ìn parte, con il fatto che i teorici della scrittura elettronica provengono, nella stragrande maggioranza, dall'insegnamento delle lingue, della scrittura, della letteratura e della retorica.

Ciò non osta, però, che i contributi più suggestivi di questi studiosi siano, secondo me, appunto quelli in cui vengono esaminate le prospettive dell'ipertestualità elettronica nel campo dei testi narrativi. In concreto, laddove s'ipotizza un tipo di romanzo radicalmente nuovo. In altre parole, una letteratura dell'interattività, della non-linearità, della non-consequenzialità, della non-compiutezza e della non-chiusura; una letteratura, infine, in cui l'autore e il lettore dovrebbero partecipare all'unisono al processo di produzione del testo.

Romanzi così concepiti esistono già numerosi. I più famosi sono quelli di Michael Joyce, Shelley Jackson, Carolyn Guyer, Edward Falco, Robert Kendall e Clark Humphrey.


L'albero genealogico

È interessante rilevare che ai teorici della letteratura ipertestuale, nonostante la radicalità di molte delle loro asserzioni, piace spesso elencare nomi di autori che, nella storia della letteratura, sarebbero stati precursori del nuovo tipo di scrittura. Si tratta, in generale, di autori le cui opere hanno contribuito, in un modo o in un altro, a mettere in discussione i presupposti fondativi del romanzo. I più frequentemente citati sono Sterne, James Joyce, Kafka, Pirandello, Borges, Queneau, Robbe-Grillet, Sarraute, Calvino, Derrida e Cortàzar.

A mio parere, di tutti questi autori, solo Joyce e Cortàzar, e forse allargando un po' le maglie anche Borges, possono essere ritenuti precursori della prosa ipertestuale. Ma io credo che sia stato soprattutto Julio Cortàzar (1963), con il suo romanzo Rayuela — tradotto in italiano con il titolo Il gioco del mondo —, ad aver esplorato, senza rinunciare ai consueti mezzi della scrittura pre-elettronica, non pochi dei componimenti testuali oggi proposti dalla scrittura elettronica. Benché i risultati raggiunti siano di indubbio interesse sperimentale, difficilmente possono essere ritenuti veri e propri esempi d'ipertestualità. In ogni modo, credo che spetti a Cortàzar il merito di aver messo platealmente in evidenza la difficoltà, secondo me insuperabile, di produrre una narrativa ipertestuale nel quadro di una tecnologia che, per sua natura, non offre quei gradi di libertà che una narrativa così congegnata richiede.

Vi è tuttavia un altro autore che i teorici della scrittura ipertestuale sembrano ignorare, ma che avrebbe potuto essere incluso nella ristretta cerchia dei precursori. Mi riferisco al tedesco Arno Schmidt (1970). Nella sua opera Zettels Traum, questo scrittore realizza, con la tecnica grafica del montaggio e del collage, un romanzo (o meglio un antiromanzo) in cui sono adoperate non poche delle procedure che oggi, ben si sa, fanno parte dell'ambizioso programma ipertestuale.

È difficile quando si parla, come si fa ora, di liberare la produzione testuale dai vincoli della linearità, non tener presente il contributo in questo senso delle "parole in libertà" di Marinetti, del poema An Anna Blume di Schwitters e dei cadavre esquis di Breton e dei suoi amici.

Lasciando da parte il tema concernente i suoi precursori, reali o presunti, si può affermare che la scrittura ipertestuale si prospetta, almeno in linea di principio, come un arricchimento tecnico della creazione letteraria, sia sul versante narrativo, sia su quello poetico. Tuttavia, alcuni discorsi programmatici che si fanno a suo sostegno, vanno spesso ben oltre tale assunto e investono questioni di un ordine molto diverso. Vediamo, in seguito, di approfondire alcune di tali questioni.


"Morte del libro"e "morte dell'autore"

Uno dei temi più ricorrenti tra i fautori della scrittura ipertestuale, o almeno tra chi sostiene la posizione più estrema, riguarda la certezza che la "morte dell'autore" sarebbe ormai imminente. Non meno imminente, del resto, sarebbe la "morte del romanzo", e anche persino la "morte del libro". Ma con i necrologi si deve andare cauti. C'è sempre il rischio che il preannunciato defunto, contro ogni previsione, appaia di persona alle proprie esequie in perfetta salute e rinnovata vitalità. Mi sembra che qualcosa di simile stia accadendo con i foschi vaticini sulle sorti dell'autore. Piaccia o no, l'autore è ancora vivo e vegeto. (Lo stesso si può dire del romanzo tradizionale e del libro cartaceo.)

La denuncia dei limiti (e addirittura dei rischi) del libro cartaceo nella nostra cultura è una costante tra i sostenitori di una cyber culture a oltranza. Molto spesso, infatti, costoro sono inclini, con maggiore o minore leggerezza, a perorare la sua inesorabile estinzione. Il libro, dicono, sarebbe diventato ormai obsoleto, e dovrebbe essere sostituito da nuovi, e più efficaci, mezzi di comunicazione e informazione. Inoltre, a suffragio di questa tesi, si cita la valutazione - a mio giudizio inappurabile - per cui il libro sarebbe ormai una merce senza (o quasi) mercato.

Sebbene il libro sia, come è ben noto, un prodotto di consumo, e pertanto sottoposto alle leggi del mercato (moda, concorrenza, rotazione degli stock ecc.), è difficile immaginare che, a causa di una qualsivoglia flessione congiunturale del mercato, il libro possa sparire ex abrupto dalla superficie della Terra. Di sicuro il libro è un oggetto. Di sicuro è anche - lo abbiamo appena detto - una merce. Di sicuro, come tutte le cose umane (si tratti di oggetti o di merci), il libro è mortale. Ma bisogna ammettere che alcuni oggetti e merci sono, scusatemi il paradosso, più mortali di altri. Un libro, per esempio, è meno mortale di un disco in vinile. La scomparsa dal mercato dei dischi in vinile, e la loro sostituzione con il CD, è stata un evento clamoroso nella storia dei mezzi di registrazione musicale (e in generale sonora), ma i suoi effetti culturali, seppur importanti, sono rimasti limitati a un'area molto specifica.

Tutt'altro sarebbe l'effetto di una eventuale sparizione del libro. Perché? Perché il libro è riuscito a occupare un posto, a dir poco, privilegiato nella nostra cultura letterata. Esso nasce da un vasto processo di sintesi tra diversi modi d'intendere la produzione, la distribuzione e, non per ultimo, la fruizione individuale e collettiva del sapere. Se s'intende qui per libro ogni veicolo portatore di scrittura (il rotolo, per esempio, sarebbe da includere, a pieno titolo, in questa categoria), è evidente che esso è stato il risultato di un complesso e accidentato percorso ìn cui i più svariati fattori (sociali, culturali, economici, organizzativi e tecnici) hanno avuto un ruolo determinante. Certo, molti di questi fattori non sono oggi più operanti nello stesso modo in cui lo sono stati nel passato. Sarebbe tuttavia irragionevole pensare che questo basti per sancire la fine del libro.

| << |  <  |  >  | >> |

Pagina 72

Ipertestualità e saggistica

A questo punto c'imbattiamo in una questione particolarmente delicata. Io mi domando: siamo convinti che la libertà dai vincoli che noi rivendichiamo - a mio parere giustamente - per la scrittura narrativa, possa essere proposta, negli stessi termini, per la saggistica? Alla domanda si deve dare una risposta piuttosto articolata. Vi è motivo di ritenere che la libertà dai vincoli possa essere fattibile (e desiderabile) in alcuni settori della saggistica, in altri molto meno, e in altri ancora sarebbe da respingere in assoluto. Io credo che nell'ambito della saggistica sia necessario stilare una sorta di graduatoria tra le cose che, in certe condizioni, si possono fare e quelle che sarebbe meglio non fare.

È necessario qui ritornare indietro. Come si ricorderà, tra gli argomenti utilizzati dai teorici della narrativa ipertestuale contro la tradizionale narrativa analogica figurava, in primo piano, il rifiuto dei vincoli strutturanti dell'impianto narrativo. Non è un caso che gli autori considerati precursori della narrativa ipertestuale - da Sterne a Cortàzar - manifestavano tutti, in un modo o in un altro, una forte insofferenza nei confronti della linearità e della consequenzialità.

Ora si tratta di sapere: tale insofferenza è riscontrabile anche negli autori di saggistica, ossia nei filosofi, storici e scienziati? A dire il vero, gli autori di saggistica, di consueto, si trovano a proprio agio nel rispetto dei vincoli che assicurano coesività parziale o totale alla loro riflessione. Ci sono però, soprattutto tra i filosofi, illustri eccezioni. Mi viene in mente, per primo, Nietzsche, ma anche Wittgenstein (1977), entrambi cultori del pensiero frammentario e aforistico.

"Quando penso per me stesso", scrive Wittgenstein, "senza l'obbligo di scrivere un libro, io salto da un tema a un altro, questo è il mio modo naturale di pensare. Essere costretto a pensare in successione lineare è per me un martirio. Devo cercar di farlo? Io spreco indicibile fatica nell'ordinare pensieri che forse non hanno nessun valore" (p. 60).

Alla base del malessere di Wittgenstein, del suo "martirio" (Qual), c'è l'implicito rifiuto di tutti quei vincoli che intralciano, per usare l'espressione di Locke, il free flux of thought. In definitiva, ciò che Wittgenstein, nel brano citato, rivendica ha radici profonde nel pensiero filosofico occidentale. E non solo occidentale. Da sempre, i filosofi hanno avocato a sé il diritto alla libertà d'esplorare, d'inseguire creativamente infiniti percorsi associativi, insomma, di "saltare da un tema all'altro", come Wittgenstein suggerisce. Su questo non c'è nulla da obiettare. Meno persuasiva, ritengo, è l'idea, caldeggiata dai promotori di una presunta creative non-fiction, che la libertà di esplorare debba necessariamente identificarsi solo, e soltanto, con lo stile frammentario e aforistico. E non, per esempio, con forme più strutturate, articolate e continuative.

Se la libertà d'esplorare, anche a costo di sbagliare, è fondamentale per lo sviluppo del pensiero, lo è altrettanto la possibilità di soffermarsi a lungo sull'oggetto di riflessione. Diciamolo pure: lo stile frammentario e aforistico, almeno in linea di principio, non favorisce questa possibilità. In esso, prevale la tendenza a soffermarsi solo brevemente sull'oggetto di riflessione. In fuga, per tutto il tempo, verso il prossimo oggetto di riflessione.

Abbiamo già rilevato la necessità di distinguere tra la scrittura narrativa e quella filosofica, storica e scientifica. La differenza è più che ovvia. Non c'è dubbio che voler relativizzare (o addirittura cancellare) i vincoli della linearità e della consequenzialità logica non ha (né può avere) lo stesso significato in un testo di narrativa e in uno di saggistica. Nel caso, per esempio, di un romanzo ipertestuale gli effetti rimangono circoscritti all'ambito della sperimentazione letteraria; nel caso, invece, di un saggio, per esempio, filosofico o scientifico, siamo costretti a misurarci con la verità (o non verità) delle asserzioni in esso contenute.

Tuttavia, questa distinzione, che il buon senso consiglierebbe di tener sempre presente, viene spesso trascurata. Anzi, non di rado, i due campi sono ritenuti uno solo. Fino al punto, che ci sono veri e propri (spericolati) travasamenti argomentativi da un campo all'altro. I sostenitori della narrativa ipertestuale, nelle loro critiche alla narrativa analogica tradizionale, ricorrono all'argomento che la connaturata linearità e consequenzialità di quest'ultima debba essere attribuita, per così dire, a un delitto d'origine della cultura occidentale: l'argomentazione logico-sillogistica sviluppata da Aristotele 2500 anni fa.

In altre parole, tutto ciò che, nella loro ottica, renderebbe condannabili i romanzi, per esempio, di Defoe, Swift, Manzoni, Balzac, Dumas, Dickens, James, Pérez Galdós, Dostoevskij e Tolstoj sarebbe appunto il fatto d'essere rimasti troppo fedeli all'eredità logica aristotelica. Eredità alla quale si addossa la responsabilità storica di tutti i malanni della cultura occidentale prima della comparsa del computer. Dietro a tutto questo, come si può intuire, c'è l'evanescente ideologia dell'anti-Logos, un'ideologia che già da parecchi decenni vede nella coerenza discorsiva un nefasto morbo da combattere con tutti i mezzi.

| << |  <  |  >  | >> |

Pagina 75

Ipertestualità nella saggistica tradizionale

Da tutto ciò non discende, vorrei sottolinearlo, che la saggistica sia destinata a rimanere estranea alle possibilità prospettate dalle nuove tecnologie ipertestuali. La verità è che non c'è una incompatibilità sostanziale tra scrittura e tecnologie ipertestuali. I testi della moderna saggistica sono stati, a loro modo, sempre ipertestuali. Ipertestuali, per così dire, avant la lettre.

Basta pensare, ad esempio, all'uso in saggistica delle note a piè di pagina, quell'espediente che, come ben si sa, permette all'autore di inserire, al di fuori del testo principale - di solito al margine inferiore o in chiusura -, puntuali riflessioni integrative, citazioni di fonti, rimandi ad altri testi o ad altri autori. (Un espediente a cui, nel bene o nel male, si è fatto spesso ricorso in questo libro.)

Ma qual è lo scopo delle note a piè di pagina? Malgrado le apparenze, non è, o non dovrebbe essere, il banale sfoggio di erudizione (reale o presunta) dell'autore, bensì quello di chiarire, approfondire o documentare il discorso che egli sta svolgendo nel testo. Ciò nonostante, pur ammettendo che questo sia il suo scopo, alcuni interrogativi rimangono ancora aperti. Perché al fine di chiarire, approfondire e documentare un discorso si deve necessariamente ricorrere a sostegni esterni? Detto altrimenti: perché la qualità scientifica (o semplicemente argomentativa) di un discorso dipende, almeno in gran parte, dalla capacità di generare testi ausiliari? Perché si ritiene che un testo abbia bisogno di altri testi? Perché un testo non è autosufficiente? Perché deve sempre cercare legittimità e credibilità al di fuori di se stesso?

A mio parere, può essere utile soffermarsi brevemente sui presupposti che sono alla base di questi interrogativi. Prima di tutto, vi è la convinzione, lo abbiamo appena discusso, che un testo è in grado di stabilire un rapporto di covarianza con una infinità di altri testi, che un testo è sempre, e comunque, potenzialmente inseribile in una rete di testi. Vale a dire, che tutti i testi sono, in linea di principio, reticolabili. In questa convinzione sono implicite altre due:

1) che ogni testo è per natura instabile, mutevole ed erratico, e che solo per imposizione esterna viene solodificato, irrigidito e recintato;

2) che esiste, al di fuori di un determinato testo, un numero infinito di altri testi che sono a nostra disposizione, e di cui noi possiamo servirci a volontà per esperire le nostre pratiche ipertestuali.

Credo che ambedue siano sostenibili. Sulla seconda però una precisazione è necessaria. Si deve tener conto del fatto che la sbalorditiva abbondanza di testi che si riscontra nella nostra epoca è un fenomeno senza precedenti nella storia. Essa è stata preceduta da millenni di indigenza al riguardo. Non c'è dubbio che l'esercizio dell'ipertestualità, come la intendiamo oggi, sarebbe stato impensabile nel passato. E ciò per il semplice motivo che il volume complessivo dei testi era tremendamente ridotto. Sulle cause di questo stato d'indigenza non possono esserci ormai dubbi. Esso era il risultato di una scelta precisa dei detentori del potere, non importa se ecclesiastico o secolare: fomentare l'approfondimento (e la diffusione) di alcuni pochi testi e vietare la produzione (e proliferazione) di altri. I primi tentativi (ancora timidi e maldestri) di mutare questa situazione risalgono, in gran parte, al momento della nascita (e consolidamento) della moderna cultura laica.

| << |  <  |  >  | >> |

Pagina 187

Prima infanzia e sviluppo cognitivo

A prescindere da queste considerazioni, rimane la necessità di sapere, con ragionevole certezza, se effettivamente l'uso del computer è in grado di procurare, come viene da più parti rilevato, effetti deleteri sullo sviluppo cognitivo dei bambini di giovanissima età. Credo che la questione possa essere riassunta nella seguente domanda: se è vero, come è vero, che il bambino si appropria del mondo circostante tramite l'interazione diretta con l'ambiente fisico e sociale, cosa succede quando l'interazione non è più diretta ma mediata dal computer? In altri termini: l'esperienza che si ottiene tramite un'interazione virtuale con il computer è equiparabile, dal punto di vista dello sviluppo senso-motorio del bambino, a quella ottenuta mediante una interazione reale, diretta, in cui il rapporto del bambino con gli oggetti risulta da un coinvolgimento dei suoi cinque sensi?

Ritengo che la domanda, così impostata, delimiti abbastanza bene i termini del problema. C'è solo un punto, tuttavia, che richiede una precisazione. Nella domanda ci sono alcuni accenni, soprattutto nell'ultima parte, che per certi versi richiamano l'approccio costruttivista di J. Piaget (1936, 1949, 1966, 1967, 1969, 1970, 1973, 1980). Sicuramente è stato Piaget — ma non solo lui — a spiegare il processo di appropriazione del reale in termini di attivo coinvolgimento senso-motorio del bambino con l'ambiente circostante. A dire la verità, però, già da tempo un simile assunto ha smesso di essere identificato necessariamente con il costruttivismo. Esso è passato ormai a far parte del senso comune.

Negli ultimi vent'anni, psicologi cognitivi, neuroscienziati, linguisti ed epistemologi hanno preso le distanze, come si sa, dal pensiero di Piaget. Questo non ha riguardato, contrariamente a ciò che di solito si pensa, il ricco patrimonio di osservazioni sullo sviluppo cognitivo che egli ci ha lasciato, ma piuttosto le scelte di metodo che erano alla base del suo modo di affrontare tale sviluppo. In altre parole, mentre molti dei suoi lavori sperimentali — per esempio, sul gattonare, sul piano inclinato o sulla rotazione del biberon — possono essere oggi (anche per chi non condivide il pensiero di Piaget) oggetto d'interesse e di studio, non si può dire lo stesso del quadro teorico complessivo a cui tali lavori fanno riferimento. Ciò che, a mio giudizio, rende inattuale Piaget non sono tanto le cose che egli ha incluso nel suo modello, ma soprattutto quelle che da esso ha escluso. Tra queste ultime, la più significativa è l'aver lasciato fuori del suo modello, per esplicito partito preso, l'importante questione delle competenze innate. Una questione che, di certo, Piaget non ignorava.

[...]

In realtà, gran parte dell'impegno più recente delle scienze cognitive è finalizzato a dimostrare empiricamente che il bambino appena nato è molto meno incompetente — o se si vuole molto più competente — di quanto Piaget immaginava. Nondimeno, parlare di competenze è forse un abuso linguistico. Più esatto sarebbe parlare di pre-competenze. E per pre-competenze si dovrebbero intendere soprattutto le pre-disposizioni innate che consentono al bambino di essere in grado di strutturare il suo rapporto con il reale. Ma le pre-competenze, come indica il nome, non sono ancora vere e proprie competenze. Per farle diventare tali, è necessario attivarle, sollecitarle, richiamarle.

Bisogna intanto dire subito che le pre-competenze, se non opportunamente mobilitate, hanno la connaturata tendenza a spegnersi. In breve: le pre-competenze sono mortali. J. Mehler (1974, p. 289) ha ricordato il fenomeno della progressiva perdita, nella prima fase di sviluppo del neonato, di un numero notevole di capacità innate. In specie di quelle che non sono state mai, o solo di rado, chiamate in causa. Fenomeno molto noto ai neurobiologi, in quanto esso ha il suo corrispettivo a livello di rete neuronale. Sembrerebbe, infatti, che per il nostro cervello sia necessario, a un certo punto, sacrificare i neuroni mai (o raramente) adoperati, e ciò a scopo di mettere a disposizione, per così dire, più spazio utile ai neuroni più frequentemente adoperati. Appare dunque chiaro che le esperienze sensorio-motorie che noi incoraggiamo (o scoraggiamo) nei bambini nei primi anni della loro vita, non sono senza conseguenze. Esse possono, a seconda dei casi, favorire o inibire lo sviluppo intellettivo, promuovere o cancellare determinate competenze.

Non c'è dubbio che gli ultimi contributi sperimentali delle scienze cognitive, con la loro riabilitazione delle competenze innate del bambino, abbiano cambiato alla radice l'immagine dell'infanzia. Sarebbe tuttavia un errore ritenere che la nuova immagine abbia sostituito in toto la vecchia immagine. Lo riconosce J.G. Bremner (1998, p. 240), un noto esponente della psicologia cognitiva: "In contrasto con l'idea piagetiana del bambino come inizialmente sprovvisto di una consapevolezza del mondo, è emersa l'immagine del bambino competente, del neonato munito di oggettiva consapevolezza del suo intorno [...] Nonostante questa rivoluzione nella nostra immagine dell'infanzia, essa ha i suoi propri problemi". E tra questi problemi, Bremner menziona, per esempio, il fatto che "quando misuriamo la consapevolezza infantile basandoci sull'azione diretta del bambino sul mondo, emergono molti modi tradizionali di stimare le abilità che confermano, più o meno, l'immagine piagetiana del bambino come graduale costruttore di un mondo obiettivo".


Il bambino è competente?

Il punto, a dire la verità, è molto stimolante perché avanza nientemeno l'ipotesi che si possa essere convinti assertori dell'idea del bambino competente — idea peraltro ormai confermata da un numero considerevole di studi sperimentali — senza che questo debba necessariamente comportare la rinuncia al noto assunto piagetiano del bambino come "graduale costruttore del mondo obiettivo".

[...]

A ben guardare, la tesi di Piaget non viene altro che a confermare ciò che, da sempre, tutti sappiamo grazie alla quotidiana esperienza osservativa sul comportamento dei bambini più piccoli. Non c'è niente di nuovo nell'asserire che, nella prima fase di sviluppo del bambino, il tatto è fondamentale. Ma il tatto non è mai un'esperienza isolata, essa si presenta spesso legata a quella della vista, dell'udito, dell'odorato e del gusto. Toccare, vedere, sentire, odorare e gustare fanno parte di un unico processo. Pur tuttavia, occorre ammettere che, in quella fase, a dir poco cruciale, dello sviluppo, è il tatto che svolge il ruolo più impegnativo.

È appunto il tatto che ha il compito di orchestrare il rapporto tra i cinque sensi. Non c'è dubbio che, in generale, l'atto di conoscere è legato inscindibilmente all'agire, all'operare, al manipolare. Conoscere, in un certo senso, è afferrare il reale. In molte lingue, a livello etimologico, si trova una chiara indicazione che questi due concetti hanno di fatto una comune origine, che provengono da una medesima area semantica. Per esempio, in tedesco begreifen (comprendere) ha la stessa radice di greifen (prendere). E anche appunto in italiano.

Nell'argomentazione fino a qui svolta, è stata avanzata l'ipotesi che rendere accessibile il computer a bambini molto piccoli può avere effetti nocivi per il loro sviluppo intellettivo. Ne sarebbe prova il fatto che l'interazione computer-bambino verrebbe a sostituire, in misura considerevole, l'interazione ambiente-bambino, contribuendo così a offuscare (e addirittura a vanificare) la possibilità per il bambino di esperire un rapporto diretto con il mondo materiale. Si correrebbe così il rischio di una eventuale eliminazione di quelle competenze innate che, di norma, vengono appunto attivate grazie al coinvolgimento senso-motorio del bambino.

Su questo punto, è stato fatto notare che i timori riguardo ai rischi di un tale sviluppo sarebbero esagerati, perché non terrebbero in dovuto conto il modo in cui l'interazione computer-bambino avviene nella pratica. Il rilievo è pertinente, perché talvolta, lo ammetto, nella valutazione di un determinato fenomeno, è facile lasciarsi trascinare dai propri modelli interpretativi trascurando il contesto reale in cui il fenomeno si verifica.


Lo scudo protettivo

Nel caso specifico, per esempio, è un fatto indiscutibile che un bambino di due anni non è assolutamente alla mercé di chi, in nome di un qualsivoglia disegno formativo, voglia imporgli un uso intensivo del computer. Il principale scudo protettivo di un bambino di quella età - soprattutto, come vedremo, di quella età - è la sua irrequietezza, la sua incapacità di stare fermo in un luogo e di fissare l'attenzione per molto tempo su un oggetto, un evento o un'immagine. La sua mancanza di concentrazione, la sua permanente distrazione, a differenza di ciò che accadrà più tardi, ossia a partire dai quattro anni, ha una valenza sostanzialmente positiva per lo sviluppo cognitivo. Fa parte di un comportamento volto all'esplorazione a vasto raggio del mondo circostante. La sua curiosità non è mai soddisfatta, ed è giusto che sia così. Egli è sempre altrove, sempre in partenza verso il prossimo stimolo.

[...]

Benché abbia scelto di privilegiare nella mia trattazione i problemi cognitivi dei bambini più piccoli, è evidente che il fenomeno appena discusso si ripropone anche nel periodo che va dai quattro anni in poi. Ma non negli stessi termini. A partire dai quattro anni si constata, in condizioni normali, un progressivo appassimento della precedente iperattività, ossia una progressiva crescita della capacità di prestare attenzione.

Questa tendenza si rinforza a un ritmo normale nel caso dei bambini relativamente poco esposti all'uso dei mezzi multimediali (televisione, cinema e computer), mentre invece si nota un fenomeno in senso contrario tra quelli che sono molto esposti a tali mezzi. In questi ultimi, appare evidente il diffondersi di una tendenza sempre maggiore alla dispersione, a un deficit generalizzato della capacità di concentrazione. Un ritorno dunque all'iperattività della prima infanzia? Non propriamente. La situazione è, a dir poco, curiosa. Se nella prima infanzia l'iperattività fungeva da scudo protettivo, come anticorpo atto a contrastare l'invadenza dell'ipoattività multimediale, il quadro che comincia a delinearsi è totalmente diverso. Mentre prima il tempo a disposizione della multimedialità era piuttosto limitato, e pertanto i suoi effetti contenuti, ora essa ha invaso gran parte della giornata del bambino. Per esercitare l'iperattività rimangono dunque solo tempi e spazi ristretti, per lo più saturi di multimedialità. In queste condizioni, l'iperattività diventa fiacca, sbiadita, asfittica. Nella fase precedente, l'iperattività consisteva in un comportamento finalizzato alla libera, spensierata (e sicuramente caotica) esplorazione del mondo reale, ossia del mondo fuori del video. Da ora in poi, le cose si porranno per lui diversamente. E ciò per il semplice motivo che il mondo fuori del video, una volta territorio delle sue imprevedibili scorrerie, si presenta ora ai suoi occhi fortemente limitato dalla onnipresenza del mondo video. E non solo: la sua iperattività sarà condizionata (e per certi versi guidata) dal mondo video.

A mio parere, è appunto nella caduta dello scudo protettivo, ossia di ciò che era stato un importante fattore di mediazione tra le due realtà, che va ricercata la causa di molti degli effetti sociali più negativi dei media su bambini e adolescenti. Mi sto riferendo, di preciso, ai diffusi fenomeni dei disturbi dell'attenzione, di anomia, di aggressività, di violenza, di criminalità e, non per ultimo, alle diverse forme di malattie fisiche legate alla immobilità o passività corporale.

| << |  <  |  >  | >> |

Pagina 227

8. Gli occhiali presi sul serio


Vi è oggi l'idea, sempre più diffusa, che la tecnica sia un fattore esogeno, un fattore che investe dall'esterno il "mondo in cui viviamo". Qualcosa che ci arriva da un luogo remoto, e che si insinua surrettiziamente nella nostra società. Qualcosa fuori di noi, ma anche, e soprattutto, sopra di noi.

È chiaro, del resto, che tale esasperazione dell'autonomia della tecnica concorre, nei fatti, alla sua estraniazione, e poi alla sua sacralizzazione. In pratica, essa spiana la strada al determinismo tecnologico, alla credenza che la tecnica sia la causa di tutti i mutamenti, reali o presunti, che avvengono nella società.

Non si tiene conto di un fatto piuttosto ovvio: che la tecnica non è, per così dire, allo stato brado, al di fuori della società, ma si colloca al suo interno ed è fortemente condizionata dalle dinamiche sociali, economiche e culturali. In breve: non è la tecnica ma la società che, nel bene o nel male, cambia il mondo. E quando la tecnica, come per esempio nel caso dell'ambiente, "ci pone problemi", in fin dei conti i problemi non sono della tecnica ma della società.

"Tutto è tecnica", ha affermato lo storico Fernand Braudel, alludendo presumibilmente al fatto che in ogni agire umano vi è sempre, in maggiore o minore misura, un momento artefattuale, protesico, ossia il ricorso a un dispositivo strumentale deputato a potenziare il nostro agire operativo e comunicativo. Credo che, in quest'ottica, l'asserzione di Braudel sia giusta. O meglio: parzialmente giusta. Molto più aderente ai fatti sarebbe stato dire: "Tutto è tecnica, poiché tutto è società". Oppure, viceversa: "Tutto è società, poiché tutto è tecnica". Sennonché, a questo punto, sorge implicita una domanda: in questa identificazione a tutto campo della tecnica con la società, dell'agire tecnico con l'agire sociale, non si cela una versione, appena più sottile, di determinismo tecnologico?

È un timore, a mio giudizio, ingiustificato. Riconoscere, da un lato, che la tecnica è onnipresente perché onnipresente è la società e, dall'altro, che la società è onnipresente perché la tecnica è onnipresente, non significa ammettere che esista un'autonomia della tecnica, e neppure che la tecnica funga da istanza inappellabile del governo del mondo. Al contrario, ciò che risulta sconfessato è appunto la presunta autonomia della tecnica e pertanto il determinismo tecnologico in essa implicito.

Certo, si rifiuta ugualmente l'idea di una totale autonomia della società nei confronti della tecnica. Una tesi tutt'altro che azzardata. Perché, diciamolo pure, l'idea di una simile autonomia si scontra clamorosamente con la realtà dei fatti. Chi può oggi mettere in dubbio, senza rischiare il ridicolo, che gli sviluppi della tecnica siano in grado di condizionare fortemente i nostri stili di vita, i nostri rapporti con gli altri e i nostri valori e credenze? Chi può essere così temerario da affermare che la tecnica si possa considerare un fatto marginale nella nostra società?

La verità è che l'oggetto del contendere non è tanto se accettare (o meno) la rilevanza della tecnica - che è fuori discussione -, ma piuttosto sapere se si deve (o meno) assegnarle un ruolo causale nei riguardi dei cambiamenti che si verificano nella società.

Molti storici e filosofi della scienza e della tecnica, soprattutto coloro che s'ispirano al costruttivismo sociologico, respingono una tale eventualità. Per costoro, la causa - la molla primaria - dei cambiamenti nella società, va ricercata nella società stessa e non nella tecnica. Posizione che, di solito, viene riassunta nel seguente motto: la società è la causa, la tecnica solo l' agente dei cambiamenti.

Va detto però che il tenore di questo asserto (per me, in linea di massima, condivisibile) merita alcune riflessioni e precisazioni aggiuntive. Non si può trascurare il fatto che le nozioni di causa e di agente hanno notoriamente una lunga tradizione nel pensiero filosofico. Basta ricordare la dottrina aristotelica delle "quattro cause" e le complesse costruzioni concettuali della scolastica medievale relative al rapporto causa-effetto. Senza dimenticare, del resto, i sofisticati rompicapi logico-epistemologici della moderna filosofia della scienza sull'argomento.

Benché non sia mia intenzione soffermarmi sulle implicazioni squisitamente filosofiche del determinismo tecnologico, appare evidente la difficoltà (e persino, io direi, l'impossibilità) di discutere questo tema senza tenerne conto. Il che è vero anche quando le nozioni di causa ed effetto non sono adoperate in modo esplicito, e vengono all'occorrenza sostituite da un corrispettivo metaforico più o meno ingegnoso.

Vediamo il caso, per esempio, della formula, molto cara ai sostenitori del determinismo tecnologico, secondo la quale la tecnica "spinge" (push) e la società "tira" (pull). Per i suoi oppositori, invece, sarebbe piuttosto la società che "spinge" e la tecnica che "tira".

A questo punto, sorge un dubbio: siamo sicuri che queste due versioni contrapposte non siano, entrambe, il risultato di un medesimo errore, ossia quello di credere che tra causa ed effetto il legame sia sempre, e comunque, lineare, unidirezionale e irreversibile? Non è stata appunto la tradizione filosofica relativa alla causalità, prima evocata, a invitarci spesso a riflettere sul problema - seppur non ancora risolto - delle causalità circolari, delle catene causali?

Nel tema che stiamo qui discutendo, la questione della circolarità non può essere ignorata. Poiché se è vero, per restare nella metafora, che in una certa fase è di fatto la tecnica che "spinge" e la società che "tira", è altrettanto vero che, in una fase precedente, è stata la società a "spingere" e la tecnica a "tirare".

[...]

Ebbene, per verificare la possibilità di un modo diverso, ossia non semplicistico, di affrontare questo rapporto, vorrei ora esaminare il caso della nascita e dello sviluppo di un oggetto tecnico che, malgrado (o a causa di) le sue ridotte dimensioni e la sua scarsa complessità, può esserci di aiuto per cogliere quegli aspetti che, nel caso dei macrosistemi, sono di solito trascurati.

Mi riferisco, di preciso, agli occhiali da vista, un oggetto che sommessamente, senza destare scalpore, e ormai già da più di settecento anni, consente a una stragrande maggioranza di noi - miopi, presbiti, ipermetropi o astigmatici - di facilitare l'accesso sensorio-percettivo alla realtà.

Certo, "prendere sul serio" gli occhiali da vista può sembrare una scelta poco stimolante a studiosi che preferiscono misurarsi solo, ed esclusivamente, con oggetti di ben altra portata. Ma il fatto che gli occhiali da vista siano, in apparenza, oggetti banali (o diventati per noi banali), non è una buona ragione per considerarli privi di rilevanza storica. O peggio ancora: non voler riconoscere la loro utilità nell'attuale riflessione teorica sulla tecnica.

Lo storico Lynn White (1940), scrive in proposito: "Sicuramente nessuno nel mondo degli occhialuti accademici può essere tanto scortese da mettere in dubbio che l'invenzione degli occhiali ha contribuito a far salire il livello generale di educazione e a favorire la pressoché febbrile attività di pensiero che caratterizza il XIV e il XV secolo".

Comincerei col ricordare che la storia degli occhiali, come è noto, è strettamente legata a quella delle lenti. Non solo: l'invenzione delle lenti oftalmiche segna di sicuro un momento di svolta nello sviluppo degli strumenti per l'ottica. Nei fatti, le lenti da vista spianano la strada allo sviluppo dei primi cannocchiali e dei primi microscopi compositi. E preannunciano, inoltre, l'avvento dell'ottica fine e di altissima precisione, ossia di quell'insieme di strumenti e di apparecchi che, nel periodo che va dal Trecento al Settecento, crea i presupposti tecnico-scientifici della rivoluzione industriale. In breve, strumenti e apparecchi che sono alla base di quella formidabile svolta che ha portato "dal mondo del pressappoco all'universo della precisione", per usare la felice espressione di A. Koyré (1961).

Un universo in cui l'osservazione scrupolosa, la misurazione accurata e la quantificazione esatta diventano i tre elementi portanti dell'impianto strutturale e funzionale.

Ma non è forse un poco sopra le righe - mi si potrà obiettare - voler assegnare agli occhiali un ruolo tanto significativo nel processo costitutivo del mondo moderno? È sicuro che non si tratti di una forzatura interpretativa? A mio avviso, queste (o simili) perplessità sono infondate. Ho il sospetto che esse non siano altro che un retaggio di ciò che Vasco Ronchi (1962), in diverse occasioni, denunciò come la "congiura del silenzio" dei "dotti di professione" (filosofi e storici) nei confronti delle lenti e delle loro applicazioni. Quella stessa "congiura del silenzio" che il geniale Giambattista Della Porta, per primo, nel XVI secolo, aveva cercato d'infrangere con i suoi libri Magia Generalis e De Refractione.

Desta meraviglia però che, nonostante i secoli trascorsi e i clamorosi progressi compiuti nel frattempo dall'ottica strumentale e dal suo indotto, ci siano ancora dubbi sulla rilevanza storica dell'invenzione degli occhiali. Rilevanza storica che riguarda non solo l'invenzione dell'oggetto d'uso noto con questo nome, ma anche le conoscenze scientifiche e le esperienze tecniche che l'hanno preceduto (e per certi versi prefigurato). Senza dimenticare, tuttavia, le conoscenze e le esperienze che, sulle tracce di questa invenzione, sono state acquisite subito dopo e che hanno aperto prospettive inedite all'osservazione strumentale. Per la fase precedente, vorrei citare, per esempio, i contributi di Alhazen, Grossatesta e Ruggero Bacone, per la fase successiva, quelli di Della Porta, Keplero e Galilei.

Non voglio lasciarmi trascinare nella peregrina controversia tra fiorentini, pisani e veneziani riguardo a chi si debba attribuire l'invenzione degli occhiali. Come si sa, per i fiorentini è stato Salvino Armando degli Armati. Per i pisani, Alessandro Spina. Per i veneziani, un ignoto vetraio di Murano.

Il mio interesse, come ho già anticipato, è un altro. Io vorrei trovare risposta a due diverse (e antitetiche) domande.

La prima: qual è il legame, eventualmente causale, tra i progressi dell'industria vetraia, ossia la capacità di fornire lenti atte alla prestazione ottica richiesta, e l'invenzione degli occhiali?

La seconda: come e perché emerge, intorno al 1280, l'esigenza sociale, economica e culturale di correggere l'anomalia visiva dei presbiti, cioè il vedere male da vicino e bene da lontano, e quella, intorno al 1450, di correggere l'anomalia visiva dei miopi, cioè il vedere bene da vicino e male da lontano?

Con questi interrogativi, come s'intuisce, siamo ritornati in pieno alla questione, discussa in precedenza, su chi "spinge" e chi "tira" nel rapporto tecnica-società.

| << |  <  |