Copertina
Autore Riccardo Falcinelli
Titolo Guardare Pensare Progettare
SottotitoloNeuroscienze per il design
EdizioneNuovi Equilibri, Viterbo, 2011, Scritture 21 , pag. 336, ill., cop.fle., dim. 15x21x2,3 cm , Isbn 978-88-6222-173-3
LettoreRenato di Stefano, 2012
Classe design , scienze cognitive , scienze tecniche , comunicazione , sensi , fotografia , illustrazione
PrimaPagina


al sito dell'editore


per l'acquisto su IBS.IT

per l'acquisto su BOL.IT

per l'acquisto su AMAZON.IT

 

| << |  <  |  >  | >> |

Indice



0.  Introduzione

0.1     Il colpevole è nell'occhio 9
0.2     Arte e scienza 11
0.3     L'occhio e il cervello 12
0.4     Il cervello visivo 12
0.4.1   Modularità 12
0.4.2   Gerarchia 13
0.4.3   Empatia 14
0.4.4   Senso e significato 14

1.  L'occhio

1.1     Anatomia 17
1.2     Lo specchio dell'anima? 19
1.3     Camere oscure 22
1.4     Luce e filogenesi 26
1.5     La materia illuminata 30
i.6     Coni e bastoncelli 33
1.7     L'occhio non sta mai fermo 39
i.8     Il progetto negli occhi dell'altro 48

2.  Il cervello

2.1     Quali principi? 51
2.2     Ontogenesi 54
2.3     Assoni e dendriti 58
2.4     Guardando il cervello 63
2.5     Moduli 66
2.6     Corpo e cervello 68
2.7     I neuroni della visione 70
2.7.1   Cosa piace alle cellule 74
2.7.2   Dove sta cosa? 79
2.7.3   On-off 82
2.7.4   Il mondo, come è «veramente» 89
2.8     Fatti per l'ortogonalità 92
2.9     Tre dimensioni 93

3.  Mimesis

3.1     Le linee somigliano alle cose? 101
3.2     Questo è quello 102
3.3     Realismo e convenzione 103
3.4     I contorni sono in natura 110

4.  Iniziare a vedere

4.1     L'occhio, appena nato 113
4.2     Lo sviluppo della profondità 115
4.3     Associazioni 116

5.  Guardare gli altri, capire gli altri

5.1     Il movimento non va pensato 119
5.2     Neuroni specchio 122
5.3     Empatia e conoscenza 125

6.  Teorie della percezione visiva

6.1     Innatisti ed empiristi 129
6.2     Top-down 133
6.2.1   Illusioni e inferenze 136
6.2.2   Gestalt 142
6.2.3   Il potere del centro 150
6.3     Neuroestetica 152
6.4     Bottom-up 155
6.5     Immagini interne e linguaggio 159
6.6     Vedere «come» 161

7.  Vedere le facce

7.1     Una faccia non è un bicchiere 165
7.2     Riconoscere una faccia 168
7.3     Sinestesie 170
7.4     Gli uomini preferiscono le facce? 175
7.5     Pecore, ragni e bestie in genere 179
7.6     I consumatori preferiscono le bionde? 181

8. Vedere lo spazio figurativo

8.1     Lo spazio progettato 185
8.2     Grammatica dello spazio 187
8.3     Lo spazio guardato 192
8.4     Guardare le figure 198
8.5     Trompe l'oeil 211
8.6     Illusionismo multipiano 220
8.7     Ombre 223

9.  Vedere e nominare il colore

9.1     Il giallo non dà sul blu (o quasi) 227
9.2     Il complotto delle tempere 233
9.3     Soprattutto la costanza 236
9.4     I colori delle cose 239
9.5     Fisiologia o cultura? 241
9.6     Progettare con il colore 244

10. Vedere il grigio

10.1    La luce e l'ancoraggio 249
10.2    Galileo pittore e i camaleonti 256

11. Disegnare

11.1    Disegnare e somigliare 259
11.2    Disegnare e pensare 263
11.3    Scomposizioni e verifiche 264
11.4    Altre sinestesie 266
11.5    Sketchbook 266

12. Grafica, scrittura, lettura

12.1    Retaggi e pregiudizi 269
12.2    I neuroni della lettura 278
12.3    Leggere 283
12.4    La tipografia non è invisibile 286

13. Vedere il movimento e la causalità

13.1    Il movimento biologico 295
13.2    I neuroni del movimento 298
13.3    La verità ventiquattro volte al secondo 301
13.4    La percezione della causalità 304

14. Guardare, pensare, progettare

14.1    Quali principi? 307
14.2    Nuove domande 311

15. Epilogo 313

Bibliografia 321

Indice analitico 328


 

 

| << |  <  |  >  | >> |

Pagina 9

0. Introduzione

0.1 Il colpevole è nell'occhio Intorno al 1850 andava di moda, tra le signore più eleganti e aggiornate, indossare un ciondolo fatto con un occhio di coniglio mummificato su cui compariva una figuretta in silhouette. Lo stravagante monile si realizzava così: si prendeva un coniglio vivo e gli si immobilizzava la testa e l'occhio di modo che fissasse — per un numero sufficiente di secondi — un punto prestabilito dove si poneva una sagoma in controluce (pare bastasse un cartoncino scuro poggiato sul vetro di una finestra). Raggiunto il tempo giusto, gli si mozzava la testa di netto e si estraeva l'occhio che veniva prontamente conservato con una soluzione di allume, così che l'immagine scelta vi rimanesse impressa. Lo strambo dagherròtipo biologico veniva sfoggiato nei salotti buoni e veniva chiamato optogramma. La moda, indubbiamente un po' macabra, si inserisce tra le varie sperimentazioni di un'epoca che sta perfezionando la riproducibilità tecnica delle immagini. Nel fondo dell'occhio c'è un pigmento rossastro, chiamato rodopsina che, usando la pupilla che fa da obiettivo, permette questo gioco di impressione. Il pigmento è presente ovviamente anche nell'occhio di altri animali e non solo dei conigli, ma di ciondoli umani non ci è giunta notizia. La rodopsina era anche detta «profondo rosso», da cui il titolo del film di Dario Argento che non allude solo al sangue ma al volto dell'assassino, impresso e nascosto nell'occhio del protagonista.

Oggi la maggioranza delle persone si fa un'idea delle cose attraverso immagini prodotte o riprodotte tramite procedimenti simili, che chiamiamo, genericamente, fotografici. La presenza di immagini ottiche, in tutte le loro forme dalla fototessera fino a YouTube, è diventata tanto pervasiva quanto invisibile; o meglio è diventato invisibile il fatto che il linguaggio di queste immagini condizioni tutta la nostra esperienza visiva. Questa invisibilità rimpolpa un diffuso malinteso: che le immagini esistano come cose autonome, immediatamente parlanti, simili alla realtà naturale, svincolate dal rapporto col linguaggio o dall'interazione con gli altri sensi. Da qui provengono poi tutta una serie di convincimenti, come quello per cui le immagini sono impalpabili ed è comunque meglio non toccarle, trattando così tutta la realtà come fossero quadri o schermi. Oppure si crede che per vedere una certa forma si possa trascurarne l'odore, ma se guardate il viso di chi amate siete sicuri che in questa «figura» l'odore non conti?

Infine si pensa che le immagini si oppongano alle parole, e che la scrittura vada appresa mentre le immagini parlino a tutti, magari scavalcando i linguaggi nazionali. Queste idee sono tanto comuni quanto infondate e non riguardano solo l'uomo della strada, perché sono spesso condivise da chi si occupa — per mestiere o per piacere — di linguaggi visivi e di comunicazione.

Ma cosa succede davvero quando guardiamo? Per il cervello cambia qualcosa se guarda le cose del mondo o se guarda le foto delle cose del mondo? E cambia qualcosa se guarda un bicchiere o se guarda una persona? E cambia qualcosa se guarda un disegno o se guarda una pagina scritta?

Credo che il mondo (checché ne pensi la televisione) non sia fatto per essere guardato ma per essere usato, cioè per entrarci in relazione, per chiederci cosa ci possiamo fare. Anche riguardo ai fatti dell'arte o ai film — che sembrano appartenere a una sfera squisitamente contemplativa — troppo spesso l'uso che se ne fa è livellato a un mero visibilismo ottico, cioè si guarda passivamente come in una catatonica visita al museo. Del resto l'idea della galleria è una cosa recente, culturalmente rilevante come tutti i granai del sapere, ma molto poco interessante rispetto ai molteplici usi che l'uomo ha fatto per millenni delle cose visive e delle attività progettuali e artistiche. Una cultura che conserva ma non usa è francamente noiosa. Quando parlo di «uso» non vorrei però essere frainteso: posso leggere romanzi per svago, per il piacere che traggo dalla rinfrescante inutilità della faccenda o posso dedicarmi alle equazioni matematiche per il godimento del loro andamento o per far passare la vita; questo per dire che anche esser lieti che qualcosa non serva a niente è farne un uso, specie in una società utilitaristica come la nostra.

Credo anche che il rapporto col mondo sia fondamentalmente emotivo, ovvero le attività cognitive, la comprensione intellettiva delle cose (e delle figure) sono sempre inscindibili dallo stato corporeo, dallo stato somatico, dalle condizioni psicologiche e dalla storia culturale di chi guarda. Non esiste un guardare astratto, spirituale e libero dal corpo. Le cose, prima di essere delle forme pure di valori luminosi, sono delle opportunità, e non esistono principi assoluti di design che possano valere svincolati da queste considerazioni.

Quando avevo sei anni c'è stato un disegno che mi ha colpito al punto da decidere — con l'intransigenza dell'infanzia — che nella vita mi sarei dedicato solo a questo: le immagini. Molti adulti, con l'enfasi dei grandi iniziati, la chiamano vocazione o sindrome di Stendhal; io preferisco pensare che le attività del pensiero, se sono entusiasmanti, provocano sempre e su tutti una marcatura nel corpo ed è questo il meccanismo generale con cui la mente conosce e ricorda. Qual è il disegno che mi ha tanto influenzato è in fondo irrilevante, ognuno ha il suo, lo svelerò comunque solo alla fine, perché le storie in cui il colpevole è subito noto le ho sempre trovate noiose.

| << |  <  |  >  | >> |

Pagina 11

0.2 Arte e scienza Diciamo «vedere» e pensiamo sia una cosa facile. Ma per capire cos'è «vedere» dobbiamo tener conto di tante cose. Per quanto rimanga diffuso il convincimento che la cultura umanistica possa fare a meno di quella scientifica (e viceversa), negli ultimi cinquant'anni la biologia ha fatto emergere un quadro incredibilmente affascinante che ha molto da insegnare al patrimonio visivo di scrittori, artisti e designer. Qualunque approccio olistico o induttivo come si fa nelle scuole d'arte o come fa la psicologia della forma è destinato oggi a risultare un po' vuoto. A usare i colori si impara mischiandoli ed esercitandosi per anni, ma saperne un po' di cellule a doppia opponenza fa sì che non si perda tempo a impastare inutilmente troppi colori complementari. La pratica artigiana può essere solo valorizzata dalla scienza, anche perché nella progettazione le combinazioni buone non sempre vengono spontanee, essendo infarciti fin dall'infanzia di idee preconcette su cosa debbano essere le cose belle.

Che siate interessati all'architettura, alla fotografia, al teatro o ai cartoni animati, oggi qualunque discorso sugli artefatti visivi non può ignorare un po' di neuroscienze. Perché il succo non sta dentro le immagini ma nel cervello, e quindi è da lì che dobbiamo partire.

A questo proposito ci sono altri due luoghi comuni riguardo alla visione: il primo sostiene che l'occhio è un po' come una macchina fotografica, l'altro dice che il cervello è un po' come un computer. La prima affermazione è imprecisa e vedremo perché, ma che il cervello sia un computer invece è falso. Il cervello non è un computer di tipo sofisticatissimo, il cervello è proprio un'altra cosa e non appartiene al mondo delle macchine o dei meccanismi, ma al mondo della biologia. Il computer, anche se non ha rotelle o pistoni, rimane una macchina, cioè qualcosa che anzitutto funziona. Il cervello, oltre a funzionare, anzitutto diventa, si trasforma, cambia, da individuo a individuo e da momento a momento di una stessa esistenza. Quindi il pensiero visivo è soprattutto una questione di plasticità.


0.3 L'occhio e il cervello Il percorso che dobbiamo seguire per capire il processo della visione è il seguente: da una parte dei dati grezzi sotto forma di luce entrano nell'occhio, vengono proiettati sul fondo di questo che è coperto di cellule in grado di convertire la luce in un segnale elettrico; questo segnale viene inviato, tramite il fascio ottico, al cervello, in un'area detta corteccia visiva primaria che smista il segnale e lo invia ad aree parallele e specializzate da cui in parte torna indietro. Queste aree si occupano di aspetti specifici e costruiscono la visione secondo colore, movimento e posizione. In più, i neuroni contenuti in queste aree, analizzano ulteriormente la scena secondo aspetti ancora più specifici: alcuni rispondono solo al rosso, altri all'orizzontalità, alcuni a una forma che si ingrandisce avvicinandosi, altri rispondono a uno spigolo. Poi ci sono altri neuroni (ancora più specifici) che si occupano, anziché di elementi formali, di sequenze compiute come delle azioni precise: cioè c'è un neurone che si accende di fronte a un atto motorio completo tipo l'afferrare (a prescindere dalla cosa afferrata).

Contemporaneamente c'è un secondo percorso che dal cervello va all'occhio e riguarda ad esempio le informazioni legate ai movimenti oculari. La nostra visione è un processo attivo e muoviamo gli occhi per esplorare la scena. Da una parte un certo dato risale dall'occhio al cervello, ma allo stesso tempo il cervello, facendo muovere gli occhi, esplora quel dato e non un altro. Sono così in atto più processi contemporanei e sincronizzati.

| << |  <  |  >  | >> |

Pagina 26

1.4 Luce e filogenesi Come è nato l'occhio? Il lombrico ha il corpo coperto di cellule sensibili alla luminosità, non vede in senso stretto ma trae informazioni dalla luce. Il primo occhio si è formato partendo da un tessuto simile, quando una depressione cutanea si è involuta su se stessa diventando una camera oscura; forse non è un caso che l'umor vitreo è salino come il mare che ricopriva gli occhi delle creature primordiali da cui discendiamo.

La comparsa di occhi capaci di formare immagini pare sia avvenuta partendo da zero almeno 40 volte, e delle specie conosciute il 96% ha sviluppato occhi di qualche tipo. Se la cosa vi fa tremare le gambe state tranquilli: anche Darwin era in soggezione di fronte alla perfezione dell'occhio.

Quello che abbiamo appena descritto si chiama occhio a camera e non è comunque l'unico tipo di occhio esistente. C'è l' occhio composto come quello della mosca, dove la luce viene captata dai singoli recettori che lo foderano esternamente; un occhio di questo tipo non può avere la finezza figurativa dell'occhio a camera ma in compenso ha un raggio visuale molto ampio, per questo schiacciare una mosca è difficile, perché ci vede pure dietro. Non crediate però che l'occhio a camera sia proprio solo dei mammiferi, il ragno saltatore, a differenza degli altri ragni e degli insetti, è munito di occhi a camera (due veri e due rudimentali che servono solo per l'orientamento [15]).

Inoltre l'occhio non si è evoluto per capriccio, ma perché c'erano delle condizioni fisiche da sfruttare. C'era la luce, che è una particolare forma di energia elettromagnetica, così si sono sviluppati neuroni specializzati nel trasformarla in potenziale elettrotonico, cioè in informazione trasmissibile. Di luce ce n'è tanta, la metà dell'energia emessa dal sole che arriva sulla Terra è luce visibile. L'evoluzione ha tratto vantaggio dalle sue qualità. La luce trasporta velocemente e a enorme distanza informazioni accurate sulla presenza delle cose e sulle loro caratteristiche. Chi ha provato a darne una definizione ha potuto solo dire che la luce è ciò che si può vedere.

La differenza fra le varie forme di energia elettromagnetica è la lunghezza d'onda, e solo certe lunghezze sono visibili ai nostri occhi. Da un punto di vista fisico non c'è differenza qualitativa tra tutta l'energia elettromagnetica e quella che chiamiamo luce. La luce come la conosciamo è quindi un fatto psicologico, perché solo quella piccola parte genera nel nostro cervello sensazioni visive. Per essere precisi si tratta della porzione compresa tra i 380 e i 700 nanometri e che corrisponde percettivamente alla successione dell'arcobaleno [17]. La ragione per cui vediamo solo questa parte come luce (e come colori) è dovuta probabilmente al fatto che ci siamo evoluti da creature che vivevano in acque torbide e queste radiazioni sono le uniche che le attraversavano.

Se neuronalmente la faccenda è complessa, fisicamente non è stata più semplice. Per un paio di secoli i fisici si sono domandati se la luce fosse fatta di onde o di particelle, e il dibattito fu rovente. Per Newton , che scrive L'ottica nel 1704, si tratta di particelle: sosteneva che sono onde quelle dell'acqua o del suono, ma non la luce in quanto non si flette intorno agli ostacoli [16]. Non è questa la sede per parlare di meccanica quantistica ma, provando a semplificare, possiamo dire che quando la luce si muove nello spazio si può pensarla come onde, quando incontra la materia conviene immaginarla come un flusso di particelle che si sposta in linea retta. Nel 1905 Einstein chiamò queste particelle fotoni, briciole di energia che viaggiano in maniera simile alle onde.

Uno dei modi per produrre energia elettromagnetica (e quindi luce) è applicare calore: se portiamo, scaldandolo, un pezzo di metallo oltre i 500 gradi non vediamo gli infrarossi emessi ma li percepiamo sotto forma di calore e in parte di luce, lo stesso avviene nelle lampadine a incandescenza dove il 90% dell'energia emessa è appunto infrarosso. Un altro esempio lo abbiamo quando gli elettroni collidono tra livelli energetici diversi come nei tubi a fluorescenza, dove gli elettroni della corrente elettrica urtano quelli presenti nel neon.

Ora, quando il fotone colpisce la materia gli cede un quanto di energia. Lo stesso avviene nell'occhio quando il fotone colpisce un fotorecettore. Dal punto di vista della visione il fatto di spostarsi in linea retta è un vantaggio in quanto l'immagine sulla retina conserva le proprietà geometriche del mondo. Possiamo quindi, per comodità, immaginare la luce come raggi diritti anche se questo è vero solo nel vuoto; i presupposti della prospettiva euclidea (un codice che ci accompagna da qualche secolo) sono esattamente questi.

| << |  <  |  >  | >> |

Pagina 101

3. Mimesis

3.1 Le linee somigliano alle cose? Un giorno gli impressionisti, in polemica con la pittura accademica, smisero di tracciare i contorni delle cose. Sostenevano che la linea non esiste in natura giacché l'occhio vede solo macchie, ma avevano torto o quasi. Il cervello è esattamente costruito per individuare i contorni ed è anche per questo che siamo in grado di cogliere la somiglianza tra un disegno al tratto e la cosa raffigurata. È vero — come dicevano — che la linea non esiste in natura, ma la linea è nel cervello. A questo proposito è ancora interessante un esperimento fatto qualche decennio fa da Ryan e Schwartz. Sottoposero delle immagini di cose in quattro diversi stili raffigurativi: una fotografia, un disegno illusionistico, un disegno al tratto e una stilizzazione tipo fumetto [79]. Il disegno a fumetto veniva riconosciuto nel minor tempo di tutti, seguìto subito dopo dal disegno al tratto.

Secondo gli autori il risultato era dovuto alla maggiore semplicità del disegno a fumetto. Io credo invece che la cosa sia un po' più complessa: i disegni lineari sono più facili da riconoscere di una foto perché sopprimono tutte le informazioni tonali e danno alla retina un'immagine predigerita che piace tanto alle cellule gangliari, ma in più, nel caso del fumetto, è l'altissimo grado di convenzionalità a rendere il riconoscimento immediato: la mano col guantino a quattro dita di Topolino si coglie al volo come cogliamo al volo la lettera A; è una convenzione memorizzata, scrittura e non pittura. Anche qui non vorrei essere frainteso: la pittura impressionista è affascinante per le ragioni opposte, perché non ha linee di contorno e impegna il cervello in una decifrazione sempre sfuggente e potenzialmente infinita.

A questo proposito, è noto un altro esperimento condotto da Julian Hochberg e Virginia Brooks su loro figlio. Dalla nascita il bambino fu cresciuto in un contesto privo di immagini raffigurative: niente disegni, niente pubblicità, niente giornali. Quando verso i tre anni gli sottoposero dei disegni al tratto che raffiguravano cose a lui note, le riconobbe senza problemi. Prova che il riconoscimento del disegno a contorno può avvenire anche in bambini ancora poco educati alle convenzioni figurative. Ma le cose non sono mai piane come sembrano. Il problema dell' iconismo ha sempre acceso violenti dibattiti tra i sostenitori del partito convenzionalista e chi sosteneva la naturalità delle somiglianze. Questo è però solo un aspetto di un problema più grande, tra i più antichi del pensiero occidentale.


3.2 Questo è quello Il pensiero greco era ossessionato da un problema che non destava grande attenzione in altre culture, la questione era questa: se io ho due cose uguali, mettiamo due bicchieri, so che sono due cose distinte ma allo stesso tempo, rintracciando le somiglianze opportune, posso dire che sono la stessa cosa, cioè un bicchiere. Dicendo che «questo» è «quello» l'uomo conosce — così pensava Aristotele. Platone chiamava idee le classi di oggetti simili, il Medioevo le chiamerà Universali.

Il problema è che i confini delle cose e dei concetti sono sfumati e le entità del pensiero sono allo stesso tempo stabili e mobili; così qualche secolo dopo, Wittgenstein, aggiornando la questione, riconosce che formulare una definizione esaustiva su una classe di cose è impossibile. Non posso trovare una definizione di gioco in cui rientrino tutti i giochi: il calcio ha cose in comune con gli scacchi ma forse nessuna con il poker, eppure li chiamiamo entrambi giochi. Il calcio quindi è un gioco o è uno sport? E se è un gioco, perché il poker non è uno sport? Il nuoto sincronizzato per certi aspetti rientra nello sport, ma per altri somiglia alla danza. Che cos'è allora la danza? E l'arte? Wittgenstein parla di aria di famiglia, come quando trovo dei tratti del padre nel figlio ma mischiati a un po' della madre e qualcosa della sorella. Il criterio per cui includiamo qualcosa in un concetto non è basato su un sistema binario del tipo o no, ma del tipo più o meno.

Oggi, qualche secolo dopo Aristotele e qualche decennio dopo Wittgenstein, non sappiamo ancora come il cervello riesca a estrarre le somiglianze e a metterle insieme.

Per quanto riguarda le immagini, il rintracciare i contorni è un pezzo importante, ma è solo un pezzo della questione. Porre una somiglianza basata su isomorfismo può andar bene per informazioni geometriche o figurative, ma come si riconosce il potere o la speranza negli occhi di un ritratto di Ingres?

Di una continuità senza complicazioni tra segni e referenti sono sempre stati sospettosi i linguisti, Ferdinand de Saussure (1857-1913) per primo metteva in guardia dalle onomatopee: la presunta somiglianza tra il «chicchirichì» e il canto del gallo è parziale se non tiene conto che ogni lingua decide come tradurre quel suono in segni. È vero però che i linguaggi possono stabilire degli elementi di analogia o di somiglianza con le cose, ma bisogna conoscere sempre e comunque il codice culturale in base a cui si fa isomorfismo. Anche una volta scoperte le cellule on-off per riconoscere i contorni, c'è bisogno di un'attività superiore che decida di concentrarsi su quei contorni e non su altri. Ernst Gombrich (1909-2001), in uno studio ormai classico sul concetto di illusionismo nell'arte, ribadiva che la somiglianza figurativa è solo una questione di grado, e in generale possiamo vedere solo quello che abbiamo imparato a vedere: un occhio innocente non vede nulla.

Sembra un po' la storia dell'uovo e della gallina: se il cervello si compie interagendo continuamente con l'esterno, come ha fatto a vedere la prima volta? E come possiamo dire dove finisce un dato grezzo e dove inizia un dato interpretato?

| << |  <  |  >  | >> |

Pagina 107

L'arte greca ha sempre guardato il mondo dal buco della serratura, le cornici dei quadri sono solo una variante meno scomoda. Il punto è che questo modello artistico ha finito per formare il modo in cui guardiamo il mondo in generale, modello ribadito dai buchi della serratura di fotocamere e telecamere. Dobbiamo essere consapevoli che guardare è un'attività fatta di tante attività insieme e non può ridursi alla mera proiezione oculare. Non possiamo più pensare che esista un guardare che prescinda dal contesto, o perfino dall'odore della cosa guardata.

A questo proposito, modernizzando il problema degli Universali, Umberto Eco ha preferito parlare di tipi cognitivi e ha ribadito che per forza di cose devono essere fatti di tratti visuali e non visuali. Il «tipo cognitivo» del gatto non può essere la sola linea di contorno, ma anche le caratteristiche di agilità e caratteriali, il movimento, l'odore, le qualità morali che gli attribuiamo e così via. Sarà poi per somiglianze incrociate che metteremo in atto quelle sinestesie che ci permetteranno di rintracciare l'agile eleganza del gatto proprio nella linea di contorno; magari in uno scarabocchio irriconoscibile che avrà però, lo «scatto» come di un gatto.

Charles Peirce (1839-1914) proponeva di chiamare icone quei segni che portano nella propria forma i tratti di un legame motivato con la realtà, ma chi avrebbe stabilito cos'è un segno motivato, cioè somigliante? Tutti sanno bene che guardando delle foto di persone conosciute si individuano vari gradi di somiglianza fino a dire: «Qui non è lui». Non tutti abbiamo una stessa idea di somiglianza, perché di quell'amico «x» abbiamo costruito un modello diverso: nel mio tipo il tratto fondamentale sono i capelli rossi, nel tuo è la curva della mandibola. Se vi è capitato di vedere i provini che Bert Stern fece a Marilyn — provini scartati da lei medesima perché non si vedeva abbastanza Marilyn — ci sono molte foto in cui una signora quarantenne ossigenata non sembra neppure vagamente la Monroe [84]. I divi sono fotogenici perché di loro conosciamo solo le foto selezionate secondo un'idea scelta dai mass media: di Marilyn possediamo solo un modello di contorni formulato altrove. Così la sua ultima apparizione, con qualche ruga, ne Gli spostati di John Huston è tanto più struggente perché somiglia con intermittenza al tipo cognitivo che Hollywood aveva scelto per lei [85].

Per concludere: l'iconismo ottico punto a punto non è garanzia di somiglianza, perché le cellule on-off devono accordarsi con altre cellule. La fotografia è cruda finché non si attua una scelta che fra gli scatti selezioni quelli sentiti come corretti rispetto a un'idea o un'intenzione. Scegliere una foto tra tante è trasformarla in un segno. Barthes aveva torto a pensare che la foto non avesse codice, il codice c'è, eccome, anzi ce ne sono due: la scelta dello scatto e la luce. Col flash della fototessera siamo tutti delinquenti.

Gli ingenui sostenitori dell'immediatezza delle figure credono anche vero quell'adagio per cui le immagini dicano più delle parole, ma questa è una sciocchezza basata su un malinteso: non si rendono conto che siamo sempre immersi nella cultura e quello che pare immediato è solo un codice assimilato profondamente. Siamo ormai tutti d'accordo che di fronte a un grado alto di illusionismo, posso riconoscere la somiglianza di una figura con la cosa, ma questo non mi dice che cosa quella figura «significhi». Il riconoscere nei tratti di contorno una cosa conosciuta è uno dei mattoni neuronali della somiglianza, ma non basta una somiglianza a fare comunicazione: che il figlio di Julian Hochberg e Virginia Brooks riconosca improvvisamente una tazza disegnata e la colleghi alla tazza che c'è in cucina, non gli permetterebbe mai di cogliere il significato di quella tazza nella segnaletica di una caffetteria [86]. Questo malinteso era in parte presente anche nel sistema Isotype proposto da Otto Neurath (1882-1945), quel sistema di figurine semplificate da cui discendono le segnaletiche aeroportuali, quelle con omino e donnina per indicare i bagni [87]. Una delle idee sottese era l'utopia, antichissima, di una lingua universale; ma quei simbolini, come tutti i dingbats recenti, sono un sistema spesso più oscuro delle scritture ufficiali e, come la scrittura, vanno comunque appresi.

Nei fumetti questo grado di convenzionalità è assoluto, tanto che si può sostenere che il disegno nei fumetti sia più un tipo di scrittura che di pittura. Vale la pena notare che il più delle persone che non legge fumetti dichiara che fa fatica perché non è addentro al codice. Mia nonna, che si rifiutava di leggere «i pupazzi», diceva che non capiva come andavano letti. Se guardate i model sheet di Carl Barks [88], cioè quelle tavole preparate per inventariare le possibilità di espressione dei suoi paperi, è chiaro che non ci troviamo di fronte a un repertorio di figure, ma a un vocabolario: sono i segni di una scrittura e come in tutte le scritture conta il valore differenziale, cioè che la faccetta «molto triste» sia ben distinta da quella «disperata».

Ancora una volta diciamo «vedere» e pensiamo sia una cosa facile. Vediamo pezzi singoli, brandelli di realtà, solo quelli a cui prestiamo attenzione. Poi alcuni tratti di contorno diventano segni, nel momento in cui li scegliamo e li mettiamo da parte.

| << |  <  |  >  | >> |

Pagina 230

Come dicevamo, se affianco due colori questi si influenzano a vicenda, e se sono complementari si potenziano. Era stato Eugène Delacroix (1798-1863) a scoprire le ombre viola, poi tanto care agli impressionisti. Si era accorto che se guardiamo la scena, le ombre tendono a caricarsi del complementare del colore da cui questa è dominata; se la scena è piena di gialli, le ombre vireranno verso il blu-violetto. Utilizzo meraviglioso è nei Covoni di Monet, dove al giallo assolato della scena corrispondono delle ombre azzurre tanto astratte da risultare assolutamente «innaturali» [199]. Come per le bande di Mach, si sta dipingendo qualcosa che non esiste fisicamente e non è misurabile.

Studi recenti hanno rivelato che «ancorando» un'immagine alla retina (cioè bloccandola così che non si sposti) diventa possibile percepire i «colori impossibili», cioè un giallo che dà sul blu o un rosso che dà sul verde; infatti fissando una superficie divisa in due campiture, da un lato verde e dall'altro rossa, se le due tinte sono equiluminose dopo un po' i confini del percetto verde e di quello rosso tendono a sfumare. Sono esperimenti ancora da verificare, vedremo quali saranno gli scenari futuri.

195. Il classico cerchio cromatico di Itten per i pittori e un adattamento ai primari di stampa. Si tratta solo di un modello teorico e dialogico, in realtà l'interazione chimica tra i pigmenti delle belle arti non permette di ottenere colori secondari brillanti, c'è quindi bisogno di almeno una ventina di tubetti per coprire una gamma cromatica decente. Anche nella stampa tipografica i colori ottenibili sono una manciata e le tinte derivate tendono a ingrigire. Che dai primari si ottenga qualunque altro colore è solo un'utopia in vitro.

198. I tre primari di quadricromia: ciano, magenta, giallo (il nero è un'aggiunta per evitare l'ingrigimento dei toni scuri, infatti il nero prodotto dalla sovrapposizione dei tre appare slavato) e i tre primari dei sistemi digitali RGB: rosso, verde, blu. Le tinte secondarie del sistema di quadricromia sono simili ai tre primari RGB e viceversa. Non a caso i colori più diffusi nella progettazione moderna sono otto: bianco, nero, rosso, verde, blu, ciano, magenta, giallo.


9.2 Il complotto delle tempere L'educazione artistica insegna a distinguere colori primari e secondari. I primari, dice, sono rosso, giallo e blu. Ma le cose non stanno così. Il concetto di colore primario ci dice semplicemente che abbiamo a che fare con una tinta da cui se ne possono generare altre per mescolanza [198]. I colori primari non sono delle tinte precise, ma solo le tinte di base all'interno di un preciso sistema di riferimento. Nella stampa in quadricromia i primari sono ciano, magenta, giallo e nero. Nei monitor i primari sono rosso, blu e verde. Nella pittura a monocromo saranno il bianco e il nero e così via. In passato molta illustrazione, per ragioni economiche, si stampava a due colori, in questo caso i primari da cui si generavano gli altri erano spesso arancio e blu [200].

Per quanto riguarda le tre coppie di opponenti individuate a livello retinico, si parla invece di primari psicologici visto che le sei tinte rosso-verde, giallo-blu e bianco-nero non possono essere ricondotte neuronalmente a nessun'altra tinta. Ovviamente quando diciamo che rosso è un primario psicologico dobbiamo chiarire che non si tratta di un rosso preciso come quello che viene fuori da un tubetto di tempera; allo stesso modo quando parliamo di segnale opponente per il giallo-blu non stiamo indicando due tinte precise, ma delle gamme a cui appartengono quelle che per il cervello sono la «giallezza» e la «bluezza».

Già Plinio diceva che i pittori usano solo quattro pigmenti per creare tutti gli altri colori, nel mondo classico i primari culturali erano però principalmente tre: il rosso, il nero, il bianco.

Oggi i nomi dei colori sono entità astratte svincolate dalle cose, cioè possiamo nominare il rosso come categoria generale senza fare riferimento a cose rosse. In passato invece i colori erano sempre legati alle cose e ai materiali. Il nominare una tinta in sé non è ovvio, né è l'unica strada possibile. Per molte popolazioni africane è importante se un colore è secco o umido, non se è rosso o blu. Anche il mondo classico era interessato a individuare gli aspetti di lucentezza, di oscurità o di opacità piuttosto che tinte precise: quando Omero dice che il mare è color del vino (oinopos) fa probabilmente riferimento alle caratteristiche di scurezza e di densità piuttosto che a una tinta definita. In Omero azzurro e verde si confondono e qualche buontempone ha addirittura avanzato l'ipotesi che i greci antichi non vedessero il blu, ma si tratta semplicemente di modi diversi di segmentare il visibile. Un altro mito molto diffuso è quello secondo cui gli eschimesi avrebbero molti nomi per il bianco, in verità si tratta di molti nomi per parlare della neve: appena caduta, liquida o dura.

Neuronalmente però, il colore è davvero percepito indipendentemente dalle cose, tanto che in casi rarissimi di avvelenamento da monossido di carbonio i pazienti finiscono per vedere i colori ma non più le forme che li portano. È però chiaro che la nostra abitudine a enunciare le tinte distinguendole da altri attributi è dovuta anzitutto alle distinzioni impostate dalla scienza moderna e stabilizzate dall'industria coloriera.

Fin da piccoli, a cominciare dalla scatola dei pastelli, ci insegnano che i colori si classificano per tinte; che queste tinte possono essere messe in ordine secondo una scala simile all'arcobaleno; e che di ogni tinta possiamo avere un tono chiaro e uno scuro.

Dietro a questa logica ineccepibile c'è però un inganno. Ai bambini si insegna che mischiando il giallo col blu si ottiene il verde, ma il sistema è abilmente sabotato. Se vi è capitato di assumere della propoli avrete notato che la tintura è di un marrone scuro ma, non appena qualche goccia viene versata nell'acqua, questa diventa bianca. Secondo la logica artistica marrone + acqua (che è trasparente) dovrebbe dare un marrone chiaro, come negli acquarelli. Ma allora da dove viene fuori il bianco?

In natura le interazioni chimiche tra elementi producono risultanze diverse a seconda delle sostanze impiegate, come il bianco della propoli. I colori dell'industria coloriera sono stati invece selezionati negli anni per rispondere a una logica coerente con le teorie artistiche. In natura non tutti i gialli mischiati al blu danno verde, questo accade solo nella chimica delle tempere. Difatti nelle mescolanze pittoriche del passato l'uso di piante e insetti produceva risultati meno governabili. Questo comportava ovviamente una diversa concezione del sistema cromatico, pensate all'utilizzo dell'oro nei dipinti medioevali: qui il concetto di luce non è ancora inquadrato dentro una scala tonale (come farà poi Leonardo [213]), cioè la luce è significata dalla riflettenza dell'oro e non dal gradino più alto di una scala luminosa.

Insomma, la convinzione che il verde sia la somma del giallo e del blu è frutto dell'impostazione culturale dell'asilo e dei pastelli, così che l'industria ha finito per standardizzare oltre agli impasti anche le percezioni.

Oggi parliamo dei colori secondo precise distinzioni di tinta, luminosità e intensità frutto delle logiche scientifiche e industriali: chiamiamo tinta il tipo di colore (rosso, giallo, verde) che corrisponde alla lunghezza d'onda; e chiamiamo chiarezza (o colloquialmente luminosità) la quantità di luce riflessa dalla superficie. La differenza tra rosso e rosa è insomma una differenza di chiarezza. Anche se è chiaro che questi termini non sono grandezze fisiche ma semplici attributi percettivi.

Manteniamo però nel linguaggio i residui di un uso contestuale: quando diciamo che il vino è rosso (e invece è viola), o quando parliamo di capelli rossi (che invece sono arancioni); un osservatore esterno si potrebbe chiedere quale caratteristica accomuna quei capelli e quel vino visto che usiamo lo stesso termine per nominarli; in questi casi quando diciamo rosso non stiamo definendo una tinta ma una qualità contestuale: rosso è ciò che si oppone a qualcosa di più chiaro ma rimanendo brillante e non sporco: l'alternativa ai capelli biondi o all'uva bianca. Si tratta di un residuo del sistema triadico classico: rosso-nero-bianco.

Nel linguaggio moderno, gli europei hanno 11 nomi base per i colori. Ci sono poi quei nomi che vengono usati solo dagli addetti ai lavori: nessuno in un contesto comune parlerebbe di Bruno Van Dick o di Verde Veronese, anche se nel lessico degli automobilisti è curiosamente passato il Rosso Tiziano per indicare un tipo di carminio-carrozzeria particolarmente intenso e lucente. E a proposito di uso contestuale, è chiaro che non è nominabile una spugna Rosso-Ferrari, perché qui quello che conta è la lucentezza smaltata.

| << |  <  |  >  | >> |

Pagina 286

12.4 La tipografia non è invisibile Quando guardiamo, l'occhio permette di inquadrare un arco di circa 10 gradi che corrisponde a 18 caratteri di un Garamond corpo 11; ma, quando leggiamo, questo si stringe su un arco di soli 2 gradi. La fissazione è leggermente spostata a sinistra rispetto al centro di foveazione e non dimentichiamo mai che la saccade avviene velocissima, a 900 gradi al secondo. Durante questo processo, a dispetto dell'apparente linearità, il movimento può tornare anche indietro, segno che non seguiamo un filo diritto ma — sempre e comunque — esploriamo. È chiaro quindi che — anche se avviene in tempi tanto rapidi da sembrare nulli — leggere è un modo specializzato di guardare [245-246].

Una buona composizione tipografica è cruciale, la riga non dovrebbe superare le 80 battute, altrimenti ci impone di muovere la testa. Anche nella lettura la visione parafoveale ha un ruolo importante nel fornire indicazioni alle saccadi, cioè l'occhio già salta a quello che leggerà un attimo dopo e si comincia a fare un'idea dell'insieme. Vi sarà capitato di fronte a un termine desueto o ignoto di leggerlo come qualcosa che conoscete, il cervello sta semplicemente associando quella forma, apparentemente riconosciuta, a qualcosa di più prossimo nel suo dizionario mentale.

In tutta questa storia gli aspetti tipografici sono stati a lungo ignorati e, come dicevamo, i linguisti li hanno spesso volutamente tralasciati. Eppure il testo ha sempre una forma.

Gli studi in materia distinguono tra visibilità (legibility) e leggibilità (readability): visibilità è il grado per cui un testo può essere individuato con sufficiente chiarezza, contrasto, illuminazione; la leggibilità riguarda invece la facilità di lettura e il grado di affaticamento. È ovvio che conta moltissimo la storia personale del singolo lettore.

In generale si può dire che leggiamo meglio quello che leggiamo di più, quindi in Italia dove l'ottanta per cento dell'editoria pubblica in varianti dei Garamond questa famiglia di caratteri risulta sempre molto apprezzata. È plausibile pensare che i caratteri con le grazie, al di là del successo storico, contribuiscano significativamente alla lettura di testi lunghi. Anzitutto, come dicevamo, per le maggiori irregolarità rispetto ai lineari, poi le grazie, rafforzando il legame ottico tra lettera e lettera, aumenterebbero il percetto della parola come «oggetto» (un po' come nelle scritture legate che si insegnano a scuola). Le modulazioni di cui parlavamo a proposito del lavoro fatto da Spiekermann sui caratteri lineari riguardano anche questi legami tra lettera e lettera. In ogni caso, al di là dei caratteri ormai storici, le distinzioni e le classificazioni delle font su basi morfologiche risultano vecchiotte e sembra più importante l'impiego che se ne fa. Poi negli ultimi cinquant'anni la lunga consuetudine coi caratteri lineari li ha resi familiari, senza dimenticare che in Germania per anni si è letto in caratteri gotici che, per quanto possono sembrare ostici a un occhio «romano», non pare abbiano creato problemi di leggibilità. Insomma, i confini delle forme leggibili si allargano sempre di più.

La faccenda è al solito complessa: conta molto l'illuminazione, conta il contrasto col supporto e il tipo di carta, contano le dimensioni del carattere e la spaziatura tra riga e riga e tra parola e parola. Una stessa font stampata con una stampante laser su carta da fotocopie o in tipografia su carta da edizioni, produce risultati completamente diversi come grado di nero, come contrasto, come chiarezza. Differenze non esclusivamente estetiche ma che incidono più o meno consapevolmente sulla lettura.

Da quando grazie ai PC la scrittura tipografica è diventata un elettrodomestico, un po' di consapevolezza sarebbe auspicabile anche tra i non addetti ai lavori, qualche rudimento magari da inserire nelle istruzioni dei programmi di scrittura. Negli usi casalinghi o di ufficio, a parte qualche ispirato creativo che si avventura tra Comic Sans e Brush Script (come il mio amministratore di condominio), più comunemente gli utenti scelgono con buon senso il Times New Roman, che più somiglia ai libri stampati e ai giornali.

Oggi, abituati a leggere decine di font diverse, siamo lettori sempre più versatili, l'abitudine a leggere direttamente dal monitor e l'avvento di nuove tecnologie come gli e-book ampliano enormemente il campo del potenzialmente leggibile. Scompare quindi un ipotetico primato di un carattere più leggibile di un altro, come poteva esser vero fino a qualche decennio fa. A maggior ragione bisogna armarsi di strumenti critici e di consapevolezza morfologica e storica. Un carattere come il Verdana (Matthew Carter, 1996), progettato per essere altamente leggibile a monitor, è spesso usato per testi stampati su supporti opachi (come la carta) e non è detto che quell'efficacia sia mantenuta. Ma se si voleva un carattere da stampare su carta, perché non se ne è scelto un altro? La varietà di forme della scrittura, l'incredibile disponibilità di caratteri digitali è infatti vissuta come un inventario di registri stilistici: se ne coglie solo l'aspetto decorativo o espressivo e se ne ignorano i problemi strutturali, le ragioni e i perché di chi li ha progettati.

In ogni caso il carattere è solo una parte del problema, e la scelta è spesso secondaria ai fini della leggibilità, quello che conta è come un testo è impaginato. Non bisognerebbe infatti essere interessati solo alla parte nera del testo, cioè alle sagome delle lettere come entità astratte, parametri come l'altezza delle aste o la forma di un occhiello contano solo in relazione ai rapporti che instaurano con l'interlinea, con la lunghezza della riga, col bianco della pagina, con le qualità del supporto usato; lo spazio tra le lettere, tra le parole, tra le righe gioca un ruolo significativo nella lettura, spesso più della font usata. Ogni carattere pretende poi i suoi modi di essere impaginato, per ragioni formali, storiche, funzionali.

Bisognerebbe inoltre guardarsi dai troppi «a capo» che interrompono i vantaggi delle informazioni parafoveali. Gli elementi di composizione del testo, al di là delle consolidate tradizioni, fanno ovviamente riferimento alle capacità fisiologiche dell'occhio. Il rientro alla prima riga evidenzia il capoverso ed evita che la pagina ci venga addosso come un muro impenetrabile e monotono, ed è chiaro che la regola sfrutta la capacità di individuare regolarità e ortogonalità. Per la stessa ragione i neretti, i corsivi, le gerarchie tra i corpi agiscono sui meccanismi di individuazione di contrasti e di contorni. Il neretto è anzitutto un'area a maggior densità di grigio il cui risultato è un effetto di risalto: il neretto ha minore riflettanza rispetto al resto del grigio tipografico. Il corsivo è invece un risalto più attenuato, non agisce sul contrasto di chiarezza ma su quello di orientamento, il corsivo ha infatti un asse inclinato di circa 12 gradi rispetto al tondo [247]. In generale i fattori culturali legati alle norme tipografiche e all'ortografia funzionano perché ancorati a precisi sistemi neuronali. E questo vale per tutti i contrasti grafici: che su una carta stradale i capoluoghi di provincia abbiano cerchietti più grandi dei paeselli non è per un fatto stilistico, ma perché il cerchio più grande è più facilmente identificabile di un semplice puntino [248]. Tutte cose che dovrebbero venire spontanee se non fossero divorate dai falsi miti della creatività. La grafica e la scrittura sono anzitutto spazializzazioni coerenti del pensiero, alla fine i troppo diffusi impieghi decorativi rimangono spesso muti.

| << |  <  |  >  | >> |

Pagina 307

14. Guardare, pensare, progettare

14.1 Quali principi? Vedere e guardare sono parole solo apparentemente intercambiabili. Per vedere basta avere gli occhi aperti. Guardare significa prestare attenzione, osservare con in testa una qualche volontà.

Alcune cose ci vengono incontro con la forza del loro flagrante significato, altre ci chiedono di concentrarci o di ragionare. Più della metà delle risorse neuronali sembrano impiegate in attività che hanno a che fare con la visione. Individuiamo contorni, linee orientate, chiaroscuri, profondità. Capiamo le azioni altrui e distinguiamo un viso da un oggetto qualunque. Riconosciamo nostra madre, e sappiamo che quella forma non è un volto qualsiasi. Guardiamo un disegno e rintracciamo somiglianze col mondo naturale. Scoviamo opportunità e possibilità. Impariamo la praticabilità di una superficie e l'invito nello sguardo altrui. Ancoriamo il grigio a una scala luminosa, distinguiamo le tinte e ci costruiamo la fiducia nella stabilità delle cose. Riconosciamo il movimento biologico, ci facciamo un'idea delle cause fra le cose, e impariamo a vedere nelle cose la presenza del tempo. Leggiamo e ancoriamo significati precisi a segni arbitrari, e così espandiamo lo spazio della mente. Alla fine possiamo anche pensare tutte queste attività, e possiamo interrogarci sulle possibilità e sui limiti della conoscenza; sulle possibilità e sui limiti di ciò che possiamo davvero vedere.

Guardare consapevolmente è già pensare; e pensare consapevolmente è già progettare. Guardare, pensare e progettare sono così aspetti senza soluzione di continuità tra loro. Sono un' endiatri: tre concetti in uno.

Anche per questo abbiamo deciso di cercare i principi della progettazione nella mente che conosce, perché le alternative ci sembrano ormai inerti. Ovviamente i dati della scienza vanno sempre confrontati con la cultura e con la storia, guardati criticamente, consapevoli che i fatti vengono al mondo con le loro interpretazioni. Quello della scienza non è il mondo del certo ma dell' infinitamente probabile, per dirla con Marc Bloch.

I vecchi principi con cui ancora si insegna a progettare sono i residui di un mondo esoterico e praticone, miscugli di procedure artigiane e di credenze spicciole. Oggi questo non può bastare. Non si può affermare che un'asimmetria è carica di tensioni come se si cavasse dalle forme qualche vaticinio; come abbiamo visto, il disequilibrio in generale, anche se non è un fatto conscio, impone più saccadi, e questo sembra alla base della percezione dinamica di certe composizioni; ecco insomma cosa sono le «tensioni» dell'arte, cose che non riguardano le forme in sé ma la fisiologia di chi le guarda.

Cartier-Bresson paventava il giorno in cui un reticolo geometrico sarebbe stato sovraimpresso al mirino della macchina fotografica, ma fu profetico: oggi la divisione in terzi e in quarti della scena è inglobata in tutte le reflex digitali dove l'inquadratura è suddivisa per assi di simmetria e per quadranti [259]. E infatti Internet abbonda di foto «ben composte». Se sia uno strumento utile, come una squadra o un righello, o se sia un vincolo pericoloso non lo so. Non mi so decidere. Di certo però non è questo un principio di design. Non si può più parlare del potere della sezione aurea o della regola dei terzi come fossero leggi universali, certi ricettari vanno bene per i progettisti della domenica. Se poi si tratta di progettare un elenco del telefono, o la segnaletica stradale, non saranno certo queste magiche proporzioni a fornirci strumenti efficaci o utili.

Non si nega alla sezione aurea, jolly di tutti i manuali di arte e design, la sua indubbia unicità matematica che informa tanti processi di crescita naturale. Né, come a tutte le vecchie signore, le si nega un incredibile fascino storico. Ma questo non garantisce nulla in ambito progettuale. La verità è che sia il numero aureo sia la regola dei terzi funzionano perché introducono un elemento asimmetrico e questo, attirando l'occhio, è sempre l'inizio di un discorso; però se spostassimo le cose un po' più a destra o a sinistra la composizione funzionerebbe ugualmente e forse il buon progettista è quello che tramite educazione e cultura alla fine va «a occhio». Deve essere quindi chiaro che in casi come questi abbiamo a che fare con principi storici e non scientifici. Non che sugli artefatti visivi la scienza possa vantare qualche priorità regolativa sulla storia; scienza e storia, ciascuna spiega la sua parte. Il punto è un altro: noi dobbiamo chiederci dove sta la scienza e dove sta la storia, e dobbiamo essere consapevoli della natura specifica di certe forme. Possiamo quindi anche usare la sezione aurea ma come omaggio al Rinascimento, non come verità ineluttabile.

Se davvero vogliamo dei principi, questi vanno cercati nei modi con cui il cervello conosce. Nel dialogo senza sosta tra fisiologia e cultura. Non si tratta quindi di formule o regolette, ma piuttosto di nodi problematici, di domande da porsi. Per chi ha a che fare con le immagini, per artisti, scrittori, designer, fotografi, registi, disegnatori, gli unici principi possibili sono domande. Una di queste è: come funziona il cervello? Come conosce?

Ma, senza troppa sorpresa, nelle biblioteche di artisti e designer abbondano i formulari e scarseggiano le scienze moderne. I libri di design parlano spesso di felicità e di leggerezza, e molti progettisti parlano di se stessi come di figure leggiadre e giocose. Forse il modernismo ha insegnato ai designer a sorridere come gli ha insegnato che i muri devono essere bianchi; anche molti architetti sorridono e ripetono che è centrale la semplicità e l'eleganza. Tutta questa leggerezza è eccessivamente gassosa. Alle volte progettare viene facile, il più delle volte invece è difficile, faticoso e i problemi di cui tener conto sembrano troppi.

Sull'altro versante gli «artisti» si mostrano tormentati e i loro sguardi sono attraversati da profonde intemperie. Pur se da posizioni opposte, artisti e designer sono però d'accordo su un punto: la centralità della creatività. Ma che cos'è la creatività? Sembrerebbe una imprecisata e spontanea capacità che si fa beffe degli altri e dello studio, esclusivamente impegnata a esprimere se stessa. Chi rivendica questa ingenua libertà non si rende conto di quanto è schiavo di valori convenzionali e muffiti; pretendere una libertà di espressione svincolata da tutto, rivela solo quanto si subiscano certi piccoli luoghi comuni sull'arte e sulla scienza.

L'unico principio progettuale è diventato così la spontaneità. Questa si contrappone allo «studio» che imprigionerebbe il talento primigenio. Ma nessun talento è diventato meno brillante studiando, ragionando o argomentando le proprie «intuizioni». Né le scienze o la matematica hanno mai prosciugato la vena creativa di un disegnatore o di un musicista. Il sapere artistico è invece troppo spesso contrapposto a quello scientifico in nome di una fantomatica opposizione tra bellezza e verità. Come se poi non ci fosse esattezza in un dipinto o non ci fosse bellezza formale in un'equazione.

Anche per questo ho deciso di usare il termine design nel suo più ampio e autentico significato, quello progettuale. Purtroppo in Italia il termine è spesso impiegato per riferirsi al posticcio stilismo di lampade, sedie e spremiagrumi; mentre, non a caso, in inglese il termine chiede sempre un aggettivo che lo contestualizzi: visual design, graphic design, architectural design, fashion design, production design e così via. Sono quindi designer: architetti, stilisti, animatori, scenografi, grafici, illustratori, rumoristi, falegnami, e tutti quelli che progettano artefatti ponendosi domande sul loro operato. Il designer è un artigiano consapevole.

Design è poi un termine meno ambiguo di arte, che sta diventando — giorno dopo giorno — una parola sempre più scivolosa e che rimanda troppe volte a un'imprecisata e mistica autorialità (alle volte gratuita, visto che nell'arte contemporanea il vero autore sembra essere spesso il curatore e non l'artista).

In ogni caso, alcuni filosofi per cui nutro simpatia, parlano di arte di fronte a qualunque oggetto che venga scelto come pretesto (necessario) di esperienza estetica; un oggetto in cui viene sentita un'intenzione, la quale può essere nominata, rivendicata, pretesa in un contendere dialettico. Chiamiamo arte ciò in cui sentiamo un'intenzione d'arte. Quindi un dipinto se volete, ma anche un albero che è cresciuto in maniera stramba e contorta, infatti questa, per molti giapponesi, è un'esperienza estetica di tutto diritto (e qui non c'è nessuno che sta esprimendo se stesso). Però vale anche la pena ricordare che i matematici di fronte a una dimostrazione risolta attraverso un numero ridotto di passaggi la definiscono elegante; e in fondo, anche nel linguaggio comune, l'eleganza non è dire molto con poco? A questo punto se per arte si intende semplicemente un qualcosa di sintetico, esteticamente complesso in sommo grado, chi ci vieta di dire che la dimostrazione di un teorema matematico non sia un'opera d'arte? L'obiezione che un teorema lo capiscono in pochi non regge, anche Gadda , Burgess o Beckett li capiscono in pochi.

| << |  <  |  >  | >> |

Pagina 311

14.2 Nuove domande Non saprei dire con precisione (fuori dalle discipline accademiche) se c'è qualcosa che distingue le immagini nel cinema, nella pittura, nel fumetto, nella matematica, nei cartoni animati, nella geometria, nella danza, nelle scienze. Incredibili assonanze percorrono i saperi, e in quegli anfratti poco praticati, sulle soglie tra un sapere e l'altro, tra improbabili somiglianze vengono fuori i pensieri più interessanti.

Questo che avete letto è, a suo modo, anche un manuale; ma a differenza dei manuali che vogliono insegnare le coordinate di un mestiere, questo è un manuale critico, cioè un libro dove si vuole raccontare che il fare non si oppone al sapere. E che anzi spiegare qualcosa a qualcun altro (o a se stessi) ci insegna a fare meglio.

Ma questo è anche un libro pieno di dubbi e i condizionali vi abbondano. Molte ipotesi sono da verificare e le conquiste della scienza vanno messe al vaglio della storia. Mi è sembrato fondamentale che le faccende della cultura fossero messe in relazione con l'ontogenesi degli individui e la filogenesi della specie. L'evoluzionismo mi è parso il miglior paradigma possibile per inquadrare la nostra storia, perché qualunque discorso sistematico lo si fa poggiando sulla storia. Tuttavia, senza aver bisogno di un Creatore, rimane nell'evoluzionismo qualcosa di eccessivamente meccanico, di eccessivamente ottocentesco. C'è qualcosa da rivedere. Probabilmente un nuovo paradigma verrà presto fuori proprio dalla neurobiologia.

Guardare, pensare, progettare sono oggi attività talmente articolate e diverse, che è impossibile tenerle dentro un'unica visione interpretativa. Siamo partiti dicendo di voler ridefinire i principi della progettazione, ma questi principi si sono rivelati delle domande o dei nodi da sbrogliare. I problemi della conoscenza visiva sono un arabesco in cui fisiologia ed estetica, biologia e storia, scienza e scienze umane vanno considerate sinotticamente. Per guardare, pensare e progettare, bisogna anzitutto porsi nuove domande.

| << |  <  |