|
|
| << | < | > | >> |Indice9 Introduzione 15 Radiazioni a volontà: raggi N, raggi N1, raggi fisiologici, raggi pesanti 39 Buona fino all'ultima goccia. Robert Andrew Millikan e la carica dell'elettrone 59 La resistibile ascesa di Emil Rupp. Albert Einstein, Emil Rupp e la natura della luce 75 Che fine ha fatto Emil Rupp? Paul Dirac, Nevill Mott, Emil Rupp e la natura dell'elettrone 89 Acque pericolose 101 Lo scienziato e il mago 119 Woodstock, fusione fredda e dintorni: quando la scienza diventa spettacolo 147 Sinistra e destra nella vita 159 Falsi nuovi elementi: dall'alabamina all'elemento 118, una storia infinita 181 Il sole in una bolla 197 Ascesa e caduta di una stella del nanouniverso 215 Dal CUDOS al PLACE: giardinieri e cacciatori al passaggio tra scienza accademica e post-accademica 235 Bibliografia |
| << | < | > | >> |Pagina 9Dicembre 2002. Come ogni anno i redattori di Science, una tra le più prestigiose riviste scientifiche insieme a Nature, discutono quali fra le scoperte degli ultimi dodici mesi verranno scelte per la consueta classifica delle top ten. Per la prima volta accanto a spettacolari successi, i cosiddetti breakthrough, in campo medico, biologico, fisico e chimico, compare questa volta una débacle, un breakdown, la disfatta dell'anno: "Frode nella fisica", episodio in cui sia Science sia Nature erano state coinvolte. A settembre un gruppo di esperti aveva dimostrato che Jan Hendrik Schön, fisico sperimentale presso i leggendari Bell Labs, i laboratori della Lucent Technologies di New York, una vera e propria fucina di premi Nobel, aveva fin dal 1998 fabbricato risultati e falsificato articoli nel campo emergente delle nanoscienze. Sfortunatamente il caso Schön non era stato l'unico dell'anno: a luglio, un gruppo di fisici del Lawrence Berkeley National Laboratory, in California, aveva ritrattato un articolo pubblicato su Physical Review Letters, la principale rivista specializzata in fisica. Una commissione interna aveva concluso che la sensazionale scoperta di due nuovi elementi transuranici nella tavola di Mendeleev era basata su ricerche fraudolente e Victor Ninov, un membro del gruppo, era stato immediatamente licenziato. Gli ultimi decenni del Novecento avevano, certo, visto un fiorire di casi di alterazione e fabbricazione di risultati scientifici, ma ciò era avvenuto essenzialmente nelle ricerche biologiche e mediche. La fisica sembrava immune. Pochi anni prima Steven Weinberg , premio Nobel per la fisica 1979, aveva affermato nel suo libro, dal significativo titolo Dreams of a Final Theory: «Per quanto io ne sappia non vi è mai stato un caso di aperta falsificazione dei dati in fisica». Che cosa stava succedendo? Aveva torto Weinberg, e i casi di frode erano sempre esistiti, per poi essere rapidamente dimenticati dagli stessi attori scientifici, oppure ci trovavamo di fronte a qualcosa di inedito nel campo delle scienze dure, le scienze di base? Del problema delle frodi nella pratica scientifica si scrive fin dal 1830, quando Charles Babbage , famoso matematico e inventore della prima moderna macchina calcolatrice, nel suo Reflections on the decline of science in England, definì diversi tipi di cattiva condotta nella ricerca scientifica. Ma è solo negli ultimi vent'anni, a partire dal libro di William Broad e Nicholas Wade Betrayers of Truth che, a seguito dei numerosi scandali emersi, si sono moltiplicate le pubblicazioni in questo campo. A volte, in particolare sulla stampa popolare, si è trattato di semplici reiterazioni di quanto precedentemente elencato. Da allora è quasi diventata una moda accusare gli scienziati di imbrogliare. La lista comprende ormai nomi quali Tolomeo , Galileo Galilei , Isaac Newton , John Dalton , Gregor Mendel , Robert Millikan e perfino Albert Einstein. Sembra che i comportamenti devianti siano la normalità nella pratica scientifica. Ma è veramente così?
Questo libro, nato da un corso per il dottorato in fisica e nanoscienze
dell'università di Modena e Reggio Emilia, tenta di rispondere a questa domanda.
Nell'affrontare il problema mi sono reso conto di tre aspetti fondamentali. Il primo riguarda la necessità di risalire continuamente alle fonti, agli articoli originali. Nella pratica scientifica, nella conduzione di un esperimento o nella costruzione di una teoria, molti fattori sono importanti: i quaderni di laboratorio, le conversazioni quotidiane, la corrispondenza scritta e oggi elettronica, le partecipazioni a meeting e conferenze, i progetti di ricerca, i preprint, ecc. Quasi mai tutto questo rimane a nostra disposizione, ma gli articoli pubblicati sì. Questi sono reperibili e la diffusione in Internet, oggi, ne favorisce largamente la fruizione. In tutti i casi affrontati sono risalito e partito dai lavori originali. Tutte le citazioni tradotte che compaiono in questo libro sono dovute all'autore. Questo scritto vuol essere, anche, un invito forte a prendere in mano la letteratura originale, molto più ricca sia di intuizioni sia di sorprese rispetto al sapere codificato che compare nei libri di testo e nelle ricostruzioni storiche. Per il lettore interessato, la bibliografia relativa a ogni capitolo offre una più ampia prospettiva sulle tematiche affrontate. Il secondo aspetto è che, per parlare delle diverse forme di "deviazione" dalle buone pratiche nella ricerca, occorre aver presente e discutere quali sono le regole di base, le norme dell'agire scientifico. Vedremo che sarà necessario distinguere fra il mito che si è creato riguardo al metodo scientifico, cioè la sua cristallizzazione attorno a poche regole auree, e la realtà fattuale del procedere della ricerca, molto più complessa, intrigante e intricata, e faticosa. Il terzo punto ha portato, fra l'altro, alla scelta del titolo di questo libro, che riecheggia quello di una poesia di Muriel Rukeyser. Nell'ambiente teatrale si usava dire che una "prima" era veramente riuscita se il processo di messa a punto dello spettacolo durante le prove cessava di essere evidente, non appariva più. Si pensava che l'attore, entrando in scena, dovesse dare l'idea di cominciare in quel momento. Poi venne Bertold Brecht e disse esattamente l'opposto: la vera "prima" riuscita è quella in cui emerge tutto il processo di costruzione della performance, tutta la fatica delle prove.
Così normalmente lo sviluppo scientifico viene presentato come un processo
lineare, una sequenza inesauribile di successi. Come se il tutto nascesse già
ben delineato. Gli errori, gli abbagli e, perché no, le frodi, le
circostanze casuali, le motivazioni e gli interessi in gioco,
l'umanità delle ricercatrici e dei ricercatori non vengono
considerati. Essi invece giocano un ruolo importante nel
processo di costruzione di una storia, che sia o meno di successo.
Racconterò qui alcune vicende di frodi, errori, casualità, interessi nella ricerca scientifica degli ultimi cento anni. Anche se ogni capitolo si può leggere come un racconto indipendente, è dall'insieme della narrazione che emerge un quadro generale. Non sono né uno storico, né un filosofo della scienza. Da trent'anni la fisica, in particolare quella della materia condensata e nell'ultimo decennio quella delle nanostrutture, è il mio campo di azione. Non potevo quindi che partire da qui, da episodi relativi alla ricerca in fisica. Questo, da una parte, mi permette di muovermi all'interno delle mie competenze, dall'altra mi fornisce la possibilità di offrire al lettore episodi poco conosciuti, o perché troppo recenti o perché dimenticati, e di riesaminarne altri alla luce degli ultimi studi. Nella prima storia incontreremo la saga di inizio Novecento sulle nuove radiazioni, in particolare sui cosiddetti "raggi N". Raramente una simile svista è riuscita a coinvolgere un così vasto numero di ricercatori. Il secondo racconto riguarda Robert Millikan, accusato di aver barato negli esperimenti riguardanti la carica dell'elettrone e di aver ottenuto il premio Nobel nel 1923 in maniera poco nobile. Terzo e quarto episodio riguardano il funambolico Emil Rupp e i suoi esperimenti sulla natura della luce e delle particelle elementari negli anni Venti e Trenta, gli anni dell'impetuoso sviluppo della nuova meccanica quantistica. Vedremo come in questa vicenda risultino coinvolti grandi nomi come Einstein, Dirac, Heisenberg, de Broglie, Davisson, Mott, Gerlach, Ramsauer, George Thompson. Per la prima e unica volta assisteremo alla pubblicazione su una rivista specializzata in fisica del referto di un noto psichiatra. Con gli episodi successivi ci sposteremo nel dopoguerra e poi negli ultimi due decenni prima della fine del secolo. Rifletteremo sulla strana natura dell'acqua, sulle sue sorprendenti e pericolose forme e sulla sua miracolosa memoria, sulla fusione fredda e la sua promessa di energia a basso prezzo e infine sulla chiralità, la preferenza della natura per l'orientamento destro o sinistro. Passando poi al nuovo millennio parleremo della continua caccia ai nuovi elementi chimici, della speranza di costruire un minuscolo sole sulla propria scrivania e, da ultimo della rincorsa a dispositivi elettronici sempre più piccoli e sempre più potenti. I ruoli si mescolano; gli scienziati si fanno manager; le istituzioni accademiche, le riviste scientifiche, le agenzie per il finanziamento della ricerca e i mass media aumentano la loro rilevanza e influenza. La scienza è cambiata, il suo ruolo sociale è sempre più importante, gli interessi a essa collegati pure. Così anche la tipologia delle "deviazioni" si modifica, assumendo forme inedite e sempre più complesse. Nell'ultimo capitolo, a partire dai casi trattati, affronterò il problema del rapporto tra gli errori, le frodi e la struttura stessa della ricerca scientifica. In particolare i casi di Emil Rupp e Hendrik Schön, avvenuti a distanza di quasi ottant'anni, con le loro sorprendenti somiglianze e particolari differenze saranno utili a questo scopo.
Chi farà lo sforzo di seguirmi fin qui sentirà parlare
delle oscure sigle CUDOS e PLACE e comprenderà la ragione della presenza dei
giardinieri e dei cacciatori nel titolo del capitolo.
Una volta Sir Peter Brian Medawar, premio Nobel per la medicina nel 1960, descrisse gli scienziati in questo modo: «Gli scienziati sono persone di temperamento molto dissimile, che fanno cose differenti, in modi fortemente diversi. Tra gli scienziati ci sono collezionisti, classificatori e compulsivi inseguitori delle nuove mode. Molti sono dei detective e molti sono esploratori. Ci sono scienziati-poeti e scienziati-filosofi, e persino qualche mistico». Qualche tempo dopo scrisse, dispiaciuto, di aver dimenticato di aggiungere: «... e anche qualche imbroglione». | << | < | > | >> |Pagina 59La resistibile ascesa di Emil Rupp.
Albert Einstein, Emil Rupp e la natura della luce
Philipp Heinrich Emil Rupp, nato nel Nord della Germania del Kaiser nel 1898 e morto nella Repubblica democratica tedesca nel 1979, è stato fra gli sperimentali più attivi in fisica atomica e nucleare durante gli anni ruggenti di queste discipline, la decade tra il 1925 e il 1935. Nelle sue memorie, Walther Gerlach, fra i fisici più importanti dell'epoca, ricorda come Emil Rupp fosse considerato uno fra gli scienziati più competenti e di maggior successo, e come godesse di una larga fama. Eppure oggi nessun libro di fisica lo menziona e se si accenna il suo nome a un qualunque ricercatore, ci si trova di fronte a un volto totalmente inespressivo. In questo e nel prossimo capitolo vedremo come la sua caduta nell'oblio si intrecci con la violazione di un laboratorio e con una perizia psichiatrica. Dicembre 1929, il francese Louis de Broglie è a Stoccolma per ritirare il premio Nobel per la fisica. Nel 1923 aveva teorizzato che non tutte le proprietà della materia possono essere spiegate con la sua natura corpuscolare, ne esistono altre che si interpretano solo assumendo che la materia possa comportarsi anche come un'onda. Un elettrone, per esempio, è sia corpuscolo sia onda. Un'onda e una particella differiscono in ogni dettaglio, niente è più diverso. Una particella è classicamente un oggetto massivo, un concentrato di energia nello spazio e nel tempo, un'onda risulta invece una variazione periodica dispersa su larghe regioni di spazio e tempo. Il lavoro di de Broglie aveva fornito lo spunto per risolvere il dissidio onda-particella, che aveva travagliato la fisica negli anni precedenti, dando il via allo sviluppo della meccanica quantistica moderna, dovuto a Werner Heisenberg, Erwin Schrödinger e Paul Dirac, tutti insigniti del premio Nobel per la fisica nei successivi anni Trenta. Nel suo discorso di accettazione del premio, de Broglie prima ricapitola la sua teoria, e poi elenca quegli esperimenti che ne hanno provato la correttezza. Così descrive l'esperimento di Clinton Davisson e Lester Germer del 1927, nei laboratori Bell di New York, sulle proprietà ondulatorie degli elettroni riflessi da una superficie cristallina; poi riferisce gli esperimenti, entrambi pubblicati nel 1928, di George Thomson in Gran Bretagna, e di Emil Rupp in Germania, che hanno invece fatto uso di elettroni penetranti un sottile foglio metallico. Ma quello che più colpisce è il grande rilievo dato a un altro esperimento di Emil Rupp, sempre del 1928. De Broglie afferma espressamente che l'esperienza che meglio prova la natura ondulatoria dell'elettrone è quella in cui Rupp, dopo aver preparato un reticolo di diffrazione, tracciando opportune righe su una superficie metallica, vi fa incidere in modo radente elettroni veloci. Dimostra così che essi vengono diffusi comportandosi esattamente come un'onda, come accadrebbe per la luce su una griglia ottica. Rupp era stato in grado non solo di provare che gli elettroni hanno proprietà di tipo ondulatorio, ma era anche stato capace di misurarne con accuratezza la lunghezza d'onda, la distanza tra due creste, derivandola direttamente dalla spaziatura delle linee del reticolo. Essere citati, soprattutto in questo modo, in una Nobel Lecture è una sorta di ammissione all'olimpo dei grandi. Ulteriori tracce dell'importanza dei risultati ottenuti da Rupp negli anni Venti si ritrovano nel libro di Werner Heisenberg (premio Nobel per la fisica nel 1932), I principi fisici della teoria dei quanti del 1930, un libro importantissimo per la disseminazione delle nuove teorie quantistiche. Heisenberg era stato invitato a trascorrere un lungo periodo negli Stati Uniti nel 1929 e durante questo soggiorno aveva presentato, in una serie di lezioni tenute a Chicago, gli ultimi sviluppi della fisica europea, allora all'avanguardia. Queste lezioni erano poi confluite nel libro suddetto, il quale è tutto impostato sulla dualità onda-particella e discute le diverse evidenze sperimentali che hanno mostrato tale dualità, sia nel caso della luce, sia in quello della materia. Nel libro, un intero capitolo è dedicato al cosiddetto Esperimento di Einstein e Rupp sulla natura della luce, un esperimento del 1926. Heisenberg lo annovera fra le esperienze più significative, concludendo che esso dimostra come la pittura particellare e quella ondulatoria siano perfettamente consistenti. Anche nel libro di Enrico Persico del 1936, Fondamenti della meccanica atomica, su cui sono cresciute diverse generazioni di fisici italiani, vengono citate molte sperimentazioni di Rupp. Nel 1931 ritroviamo Emil Rupp fra i partecipanti al primo Convegno di fisica nucleare che si svolge a Roma sotto la regia di Enrico Fermi. Con quel convegno viene riconosciuto il grande ruolo che la scuola di Roma ricopre all'epoca. Il congresso era stato ideato e organizzato da Enrico Fermi per fare il punto sulla fisica del nucleo e discutere le problematiche ancora aperte. Guardando da vicino la lista dei convenuti, si nota non solo la presenza di ben 14 fra premi Nobel della fisica e della chimica, ma anche che Rupp, allora attivo presso il prestigioso istituto di ricerca dell'AEG (Allgemeine Elektrizität Gesellschaft) di Berlino, è, assieme a Lise Meitner, l'unico rappresentante di questa città, allora uno dei centri pulsanti della fisica moderna. Rupp è un pioniere riconosciuto in fisica atomica e nucleare. Eppure quando, nel 1937, l'Accademia delle Scienze di Svezia attribuisce il premio Nobel per la fisica, questa volta proprio per la riprova sperimentale della natura ondulatoria degli elettroni, i prescelti sono solo l'americano Clinton Davisson e il britannico George Thomson. Emil Rupp viene trascurato. Maggior meraviglia riveste il fatto che, se proviamo a leggere i discorsi di accettazione del premio da parte dei due ricercatori, non troviamo alcun riferimento a Emil Rupp e ai suoi lavori. E nessuna traccia di Rupp è presente in alcuna pubblicazione a partire da quegli anni. E come se Rupp fosse stato cancellato dalla faccia della terra: sembra di trovarci di fronte a quei faraoni che, caduti in disgrazia, venivano rimossi nelle loro fattezze in ogni statua e in ogni bassorilievo. Che fine ha fatto Emil Rupp? E che ne è stato di tutti i suoi risultati? Come nelle migliori storie, per trovare la risposta dobbiamo fare un passo indietro, questa volta di dieci anni e ripartire dal 1926. E qui che compare nella nostra vicenda Albert Einstein, allora quarantasettenne, sicuramente il più carismatico dei fisici del Novecento, ormai divenuto l'icona stessa dello scienziato. Per comprendere le ragioni dell'interesse di Einstein per Rupp occorre ricapitolare il duro scontro, durato un ventennio, sostenuto da Einstein che voleva vedere riconosciuta la sua idea del quanto di luce: il fotone. Da sempre donne e uomini sono affascinati dalla luce, nei suoi diversi aspetti. E da sempre si sono interrogati sulla natura di tale fenomeno. Che cosa è la luce? Questa domanda tutti ce la siamo posta e tante sono state le risposte. Così, anche nella scienza moderna, la ricerca della comprensione dei fenomeni luminosi ha finito per essere di fondamentale importanza, producendo risultati che hanno dato origine all'odierna fisica quantistica. Fin dagli albori del metodo scientifico, a partire dal diciassettesimo secolo, due scuole di pensiero profondamente diverse si sono date battaglia sulla natura della luce. Una scuola affermava che la luce era costituita da particelle, da corpuscoli sciamanti per l'aria, proiettati nello spazio dalle sostanze in grado di emetterle, l'altra scuola postulava invece che la luce fosse una onda, che si propagava così come viaggia, per esempio, il suono. Malgrado la grande differenza tra le due ipotesi, per lungo tempo le due teorie hanno convissuto. La teoria corpuscolare della luce si basava su fatti semplici, la propagazione lineare e la riflessione, di cui dava un'interpretazione immediata e intuitiva. Isaac Newton ne era stato il massimo alfiere. Ma anche la teoria ondulatoria, i cui campioni erano stati Robert Hooke e Christiaan Huygens, era in grado di spiegare sia la propagazione lineare sia la riflessione. Per lungo tempo era mancato l'esperimento cruciale, quello in grado di decidere tra una teoria e l'altra. Nei primi decenni dell'Ottocento erano poi arrivati gli esperimenti di Thomas Young e Augustin Fresnel sulla diffrazione e l'interferenza della luce. La presenza di zone alternate di chiaro e scuro su di uno schermo al di là di una o due fenditure raggiunte dalla luce, inspiegabili per una teoria particellare, venne considerata la prova decisiva della sua natura ondulatoria. Il diciannovesimo (come abbiamo già visto nel primo capitolo) divenne così il secolo dei fenomeni luminosi e delle onde. Ma, come spesso accade, il momento del trionfo porta con sé i segni della prossima sconfitta. Alla fine del 1800 prima Heinrich Hertz e poi Philipp Lenard (premio Nobel per la fisica nel 1905) scoprono e studiano l'effetto fotoelettrico. La radiazione luminosa ha la capacità di liberare elettroni (corpuscoli) da una sostanza. Il numero degli elettroni liberati dipende dall'intensità della luce, ma la velocità, l'energia, con cui essi lasciano la sostanza è del tutto indipendente dalla potenza della sorgente, dipende solo dalla frequenza. Nessuna teoria ondulatoria è in grado di spiegare il perché. È a partire da questo fatto che, nel 1905, interviene Albert Einstein risuscitando la concezione corpuscolare della luce e introducendo il concetto di quanto di luce, che oggi chiamiamo fotone. Si tratta della pubblicazione dal titolo Sulla generazione e trasformazione della luce da un punto di vista euristico, già incontrata alla fine del capitolo sui raggi N. Secondo Einstein la luce di una data frequenza ν è suddivisa in "grani" (quanti) di energia discreta hν, dove h rappresenta la celebre costante di Planck (premio Nobel per la fisica nel 1918). Nella fisica moderna un quanto rappresenta una quantità finita, discreta e indivisibile. Questa idea forniva una spiegazione immediata dell'effetto fotoelettrico. Negli anni successivi Einstein la sviluppò ulteriormente e introdusse, più chiaramente, il concetto di fotone, il quanto, la particella della luce, connettendola direttamente all'ipotesi di Planck del 1900: nella radiazione l'energia è suddivisa in pacchetti discreti, i quanti di energia. Einstein si dichiarò convinto della necessità di una profonda rivisitazione delle idee correnti sulla natura della luce. Tale ipotesi sembrò troppo rivoluzionaria ai suoi colleghi. Nel 1909, in una lettera al suo amico Michele Besso, Einstein scriveva: «Non ho alcun dubbio sulla realtà dei quanti di luce, sebbene sia alquanto solo in questa convinzione». Nel 1913 quando, su impulso di Planck, Einstein ottiene una cattedra a Berlino, appositamente creata dall'Accademia delle scienze di Prussia, troviamo nella proposta, firmata da Planck, Nernst, Rubens e Warburg, la seguente sentenza: «In conclusione si può dire che sia difficile trovare, tra i tanti grandi problemi di cui la fisica moderna è così ricca, uno a cui Einstein non abbia dato un contributo rimarchevole. Che egli talvolta, nelle sue speculazioni, abbia mancato il bersaglio, come ad esempio, nel caso della sua ipotesi dei quanti di luce, non può certamente essere usato contro di lui, dato che risulta impossibile introdurre idee realmente nuove, anche nella più esatta delle scienze, senza prendere qualche rischio». È interessante leggere che cosa hanno detto ancora nel 1922 e nel 1923, all'atto del ricevimento del premio Nobel Niels Bohr e Robert Millikan. Bohr affermò: «Malgrado il suo valore euristico, l'ipotesi dei quanti di luce, che risulta inconciliabile con i cosiddetti fenomeni di interferenza, non è capace di far luce sulla natura della radiazione luminosa». E Millikan aggiunse: «Ho speso dieci anni della mia vita a testare l'equazione di Einstein del 1905 e, contro ogni mia aspettativa, sono stato costretto nel 1915 a vederla verificata senza alcuna ambiguità, malgrado la sua evidente irragionevolezza, dato che sembra violare tutto quel che conosciamo sull'interferenza della luce». È solo con la scoperta dell'effetto Compton, nel 1923, che le cose prendono a girare per un altro verso. Arthur Compton (premio Nobel per la fisica nel 1927) aveva notato una variazione di frequenza, quando dei raggi X colpivano la materia. Una naturale spiegazione del fenomeno si aveva ammettendo una natura corpuscolare della luce, di modo che il fenomeno poteva essere trattato come un problema di urto tra particelle. Il fotone X, urtando contro un elettrone del materiale, perde una parte della sua energia a favore di questo e quindi (E = hν) una parte della sua frequenza. Nonostante tale evidenza sperimentale, ancora Niels Bohr, in un lavoro del 1924 in collaborazione con Kramers e Slater, pur di non accettare il concetto di fotone, si vedeva addirittura «costretto ad abbandonare una diretta applicazione dei principi di conservazione dell'energia e della quantità di moto». Solo dopo che, l'anno successivo, prima lo stesso Compton, poi Walther Bothe (premio Nobel per la fisica nel 1954) e Hans Geiger ebbero "visivamente" mostrato, usando una camera a nebbia e mediante un esperimento sulle coincidenze temporali, l'esistenza dell'urto tra fotone ed elettrone, Bohr e gli altri finirono per accettare l'esistenza del fotone, del quanto di luce. Ma ancora molto restava da fare per indagare a fondo la natura della luce. Onda o particella? Oppure onda e particella? Per questo Einstein è sempre alla ricerca di esperimenti che permettano di mostrare inequivocabilmente la natura della luce. Ed è all'inizio del 1926 che si imbatte in un lavoro di Rupp appena pubblicato dal titolo Esperimenti di interferenza sui raggi canale. | << | < | > | >> |Pagina 75Che fine ha fatto Emil Rupp?
Paul Dirac, Nevill Mott, Emil Rupp e la natura dell'elettrone
La Berlino in cui Rupp arriva alla fine degli anni Venti è la metropoli più vivace del continente e probabilmente del mondo. È la città di Alfred Döblin e di Berlin Alexanderplatz , la Berlino del cinema, del teatro, dell'arte e della musica, ma anche la Berlino capitale mondiale della scienza. La città dove un pittore, Emil Orlik, può scegliere quale tema di un quadro Albert Einstein che suona il violino. La Berlino dove, a una serata di gala, si possono incontrare cinque fra presenti e futuri premi Nobel per la fisica e per la chimica: Gustav Hertz, Albert Einstein, Fritz Haber, James Franck e Otto Hahn; due grandi fisiche, Hertha Sponer e Lise Meitner, quest'ultima un vero e proprio premio Nobel mancato; accanto ad altri importantissimi scienziati come Walter Grotrian, Wilhelm Westphal, Peter Pringsheim, Otto von Bayer, quest'ultimo figlio di un altro premio Nobel. Tutti felici e sorridenti, ma ancora per poco: la presa del potere da parte del partito nazista nel 1933 colpirà direttamente ben otto di loro. È in questa magnifica città che l'organizzazione della scienza moderna ha preso forma attraverso la contemporanea presenza di numerosi centri di ricerca universitari, statali e privati; a Berlino in quegli anni per la prima volta nasce l'idea della necessità di una massa critica di scienziati e istituzioni adatta a far progredire la conoscenza scientifica. Così accanto all'Istituto di fisica dell'Università Friedrich-Wilhelm nei pressi del Reichstag, all'Università tecnica e all'Istituto imperiale pesi e misure di Charlottenburg, all'Istituto Kaiser Wilhelm per la chimica di Dahlem, e all'Accademia delle scienze di Prussia fondata da Leibniz, troviamo i laboratori di ricerca privati della Siemens e della Osram e a partire dal 1927 l'istituto di ricerca della AEG. Possiamo farci un'idea della Berlino scientifica dell'epoca ascoltando Erwin Schrödinger (premio Nobel per la fisica 1933), il fondatore della meccanica quantistica ondulatoria: «Nel 1927 arrivai a Berlino per prendere la cattedra di Planck. Le due grandi università, l'Istituto imperiale, i laboratori del Kaiser Wilhelm, l'osservatorio astrofisico, i diversi centri di ricerca dell'industria avevano creato a Berlino una densità di fisici di prima qualità senza confronti al mondo. Vedere tutte queste persone riunite ogni settimana, come a un congresso per pochi intimi, fu un'impressione profonda. Assistere alla trattazione delle questioni più brucianti e interessanti da parte di questo forum fu un piacere del tutto particolare». Il centro di ricerca della AEG era nato nel 1927 in risposta ai gravi problemi economici della Germania di Weimar, che impedivano un massiccio impegno di fondi pubblici nella ricerca. L'AEG è un gigante nella produzione e distribuzione dell'energia elettrica e fin dall'inizio l'istituto, come già nel caso dei laboratori Bell di New York, vede una proficua interazione tra ricerca di base e ricerca applicata. Il direttore scelto, Carl Ramsauer, dotato di grandi capacità organizzative, è uno sperimentale molto noto per la scoperta dell'effetto, che da lui ha preso il nome, sull'interazione fra elettroni e atomi di gas rari. La circolazione di idee e persone tra il centro e tutte le altre istituzioni scientifiche presenti a Berlino sarà sempre una delle caratteristiche positive di questo laboratorio. Ed è qui che Emil Rupp viene assunto come ricercatore senior con un proprio laboratorio e con propri fondi. Negli anni presso l'AEG Rupp si dimostrerà estremamente produttivo, in questo periodo si contano decine di articoli a suo nome, ma, come vedremo, sarà anche fonte di grandi problemi. La specialità di Rupp sta nell'utilizzo dei tubi catodici e dei fasci elettronici. Questi ultimi proprio allora cominciavano a essere impiegati nello studio dell'ordine cristallino nei solidi. Uno dei primi lavori di Rupp all'AEG è proprio in questo campo ed è una collaborazione con Max von Laue (premio Nobel nel 1914 per la fisica grazie alla scoperta e alla spiegazione delle proprietà di interferenza dei raggi X). È interessante notare che a questa pubblicazione in comune segue sulla stessa rivista un lavoro teorico del solo Laue, che definisce i risultati del primo lavoro sehr sonderbar (molto singolari, molto strani), dato che pur utilizzando elettroni, che hanno una capacità di penetrazione molto minore dei raggi X, i risultati ottenuti sono del tutto analoghi a quelli trovati mediante i raggi X. Allo stesso tempo, però, Laue si ingegna per trovare una ragionevole spiegazione teorica dei dati sperimentali. Un risultato singolare non è necessariamente un risultato sbagliato o disonesto. Spesso è dai risultati singolari che nascono sviluppi importanti. Ma nella carriera di Rupp l'abbondanza di risultati strani avrebbe dovuto sembrare quantomeno sospetta. Infatti, anche nel suo periodo berlinese, Rupp si trova al centro di forti controversie. In particolare con due ricercatori stranieri, l'inglese Skinner e il giapponese Kikuchi. Il primo pubblica su Naturwissenschaften un duro commento a un lavoro di Rupp, in cui questi si era avventurato in una spiegazione avventata sulla relazione tra i massimi della diffrazione elettronica e l'emissione di raggi X. Mentre Kikuchi, sempre su Naturwissenschaften, fa notare come Rupp, in un suo lavoro sulla validità della relazione di de Broglie, per gli elettroni dotati di alte velocità, avesse usato una formula sbagliata pervenendo a risultati assurdi. In entrambi i casi la replica di Rupp tende a minimizzare il problema, oscillando tra l'affermazione di aver già fatto ammenda su un'altra rivista e il prendere atto dell'errore, indicato come una svista. | << | < | > | >> |Pagina 83Alla notevole compagnia non poteva mancare Rupp. Fra il 1933 e il 1934 Rupp pubblica una serie di pregevoli lavori in questo campo, che per lui è in parte nuovo, avendo a che fare con la produzione di energie, di differenze di potenziale, molto elevate. Nei suoi articoli Rupp dichiara di aver ottenuto positroni, bombardando litio con protoni dotati di grande energia, che producevano particelle α, che, a loro volta, venivano fatte urtare contro un film sottile di alluminio. Non solo, afferma di essere in grado di accelerare protoni mediante differenze di potenziale dell'ordine di 500 kV, valori che all'epoca solo il laboratorio, ben più attrezzato, di Rutherford in Inghilterra era in grado di produrre.Infine Rupp afferma di essere stato capace di mostrare, per primo, la natura ondulatoria del protone, un risultato estremamente complicato da raggiungere visto che la massa del protone è circa duemila volte superiore a quella dell'elettrone. Tutte queste pubblicazioni sono accompagnate da un imponente apparato di fotografie, grafici, tabelle, ecc., come sempre negli articoli di Rupp. Rupp, a questo punto, si è forse spinto troppo oltre. Due giovani ricercatori dell'AEC, Arno Brasch e Fritz Lange, esperti nella produzione di grandi differenze di potenziale, coltivano sempre maggiori sospetti sull'attività di Rupp. Lo considerano un profano del campo e lo accusano di passare troppo poco tempo in laboratorio rispetto alla mole di lavori pubblicata. Gli chiedono ripetutamente di poter aver accesso al suo laboratorio e di poter assistere ai suoi esperimenti, cosa che Rupp nega recisamente. Un giorno, i due riescono infine a penetrare nel laboratorio all'insaputa di Rupp, praticamente forzandone la porta; così si convincono che parte dell'attrezzatura, in particolare il tubo di scarica, necessario per la produzione delle differenze di potenziale, non mostra segno di uso e che la stessa camera a nebbia sembra del tutto inutilizzata. Allora si rivolgono al direttore, Carl Ramsauer. Ramsauer propone a Rupp di ripetere rapidamente parte degli esperimenti, per mettere a tacere qualsiasi critica e diceria. Rupp accetta, ma dopo poco tempo si presenta da Ramsauer affermando che il tubo di scarica si è rotto e che gli esperimenti non sono più fattibili. Ramsauer ha ormai perso ogni pazienza, licenzia Rupp imponendogli di rendere pubblico quanto successo. Ed è così che per la prima, e per ora ultima, volta, compare su una rivista di fisica (e che rivista!), la più importante dell'epoca, Zeitschrift für Physik, la perizia di uno psichiatra. Rupp infatti, in una comunicazione della primavera del 1935, ripudia cinque articoli del 1934, Polarizzazione degli elettroni su atomi liberi, Polarizzazione degli elettroni in campi magnetici, La misura di elevati potenziali mediante diffrazione elettronica, Esperimenti con positroni prodotti artificialmente apparso in versioni differenti su due riviste, e accanto alla ritrattazione riporta la diagnosi di Emil Freiherr von Gebsattel, uno dei più noti psichiatri dell'epoca. La perizia recita: «Fin dal 1932 il Dr. Rupp ha sofferto di debolezza emotiva (psicoastenia) legata a stati attivi psicogeni di semicoscienza. Durante la malattia e a causa di essa, lo stesso ha pubblicato, senza rendersene conto, comunicazioni su fenomeni scientifici (positroni, disintegrazione atomica) che hanno il carattere di "finzioni". Si tratta dell'intrusione nell'area della sua attività scientifica di stati di sogno. Esiste un'assoluta certezza sulla sua guarigione». Di certo, da parte di Rupp, un'uscita di scena esplosiva, in grande stile. Più che di scienza si trattava di fantascienza. Ma se andiamo a leggere con attenzione il comunicato, ci accorgiamo della presenza di una coda velenosa. L'ultima frase recita: «Non esiste ragione alcuna per la ritrattazione, in parte o intera, di pubblicazioni precedenti». Non sembra la frase di uno che soffre di stati di allucinazione, piuttosto appare una vera e propria difesa a denti stretti di tutto il lavoro precedente, in particolare di quello che ha portato al famoso esperimento di Einstein e Rupp. Ma Rupp non aveva ancora finito di fare appieno i conti con il mastino Gerlach. Quest'ultimo, adirato per quella frase finale velenosa, si mette egli stesso all'opera con Rüchardt (anch'egli, come abbiamo visto, aveva un antico contenzioso con Rupp) per ripetere l'esperimento di Einstein dello specchio rotante. Quello che trovano è sconcertante. L'esperimento non solo non ha successo, il fascio di raggi canale non è ancora sufficientemente omogeneo in velocità per dare le frange di diffrazione, ma i due scoprono anche che Einstein aveva sbagliato nel disegnare il verso della rotazione. Einstein aveva immaginato una rotazione in senso orario, lo stesso senso che Rupp diceva di aver utilizzato nel suo esperimento; invece il verso corretto da scegliere era quello antiorario! È la riprova finale che Rupp l'esperimento non lo aveva svolto per nulla oppure aveva sbagliato o imbrogliato con i risultati. A seguito di questo articolo la Società tedesca di fisica decide che i lavori di Rupp non dovranno essere più citati e Carl Ramsauer scrive una lettera a una ventina di influenti scienziati nel mondo per difendere la propria istituzione e per spiegare l'andamento dei fatti. Quella decisione e quella lettera saranno all'origine della scomparsa di Rupp dalla letteratura scentifica. Rupp non sarà più tirato in ballo, cadendo definitivamente nell'oblio. | << | < | > | >> |Pagina 89È l'1l ottobre del 1969, solo tre mesi prima gli Stati Uniti hanno raggiunto la luna con la spedizione dell'Apollo 11. La strada della conquista dello spazio sembra definitivamente aperta, ma allo stesso tempo fosche nubi paiono addensarsi sul destino del nostro pianeta. Sulla rivista Nature compare una breve nota del chimico F. J. Donahoe del Wilkes College della Pennsylvania, decisamente inquietante: «Dopo essermi convinto dell'esistenza della poliacqua, non riesco a persuadermi che non sia pericolosa. In questa vicenda le conseguenze di un errore possono essere così serie che solo una chiara e provata evidenza della mancanza di rischi risulta accettabile. Unicamente l'eventuale esistenza di meccanismi naturali (ambientali) in grado di depolimerizzare il materiale, rendendolo innocuo, potrebbe tranquillizzarci. Finché questa riprova non esiste, considero questo polimero come il materiale più pericoloso esistente sulla terra. Mentre scrivo molti gruppi di ricerca stanno sicuramente creando la poliacqua, vi scongiuro, trattatela come il virus più mortale che esiste». Che cosa è mai questa poliacqua e perché rappresenta un pericolo così grande, peggiore della peste? Come molti racconti di terrore, questa storia comincia nel silenzio di una piccola città di provincia, Kostroma. Una tranquilla cittadina dell'Unione Sovietica, con un bellissimo centro storico, posta sulle rive del Volga a più di trecento chilometri a nord-est di Mosca. Qui, nel 1962, un oscuro chimico dell'Istituto tecnico, Nikolai Fedyakin, studiava il comportamento dell'acqua, prima fatta evaporare in una camera a vuoto e poi fatta ricondensare all'interno di capillari, tubicini di vetro, molto stretti, con diametro inferiore al millimetro. Fedyakin aveva osservato che nei tubicini venivano a formarsi due tipi di liquido, disposti uno sopra l'altro: il liquido superiore stranamente cresceva spontaneamente a discapito di quello inferiore. Questo era bizzarro, ogni liquido tende a evaporare sotto forma di gas e il gas poi tende a ricondensare nella forma liquida di partenza. Qui sembrava che si avesse a che fare con qualche cosa di inaspettato, e diverso; mentre la colonna inferiore era acqua normale, il liquido superiore risultava più denso. Era come se parte dell'acqua ricondensata nel piccolissimo capillare, pur mantenendo la stessa composizione chimica, avesse subìto una modificazione della sua struttura. Fedyakin pubblicò i suoi risultati in russo su una rivista specialistica. Il lavoro passò del tutto inosservato in Occidente, eravamo al culmine della guerra fredda. Solo un anno prima l'Unione Sovietica aveva costruito il muro di Berlino e gli USA avevano tentato di rovesciare Fidel Castro con l'invasione della baia dei Porci. E proprio nel 1962 con il durissimo confronto fra Kennedy e Kruscev per la crisi dei missili, sempre a Cuba, si era sfiorato il conflitto atomico. I rapporti scientifici fra Occidente e Oriente toccavano il loro minimo. Mentre l'inglese era diventato la lingua franca della scienza, gli scienziati sovietici scrivevano i loro lavori in russo, una lingua di cui pochi erano a conoscenza. Inoltre, a tutti i ricercatori dell'Est era, di fatto, impedito di visitare gli altri paesi, mentre in Occidente era da poco finita l'isteria maccartista anticomunista che aveva colpito duramente molti scienziati, fisici e chimici in particolare. Era difficile e visto con sospetto il passaggio delle informazioni da una parte all'altra. Ne è dimostrazione la tardiva divulgazione in Occidente delle teorie sulla superconduttività dovute alla formidabile scuola russa di Lev Landau e dei suoi allievi Vitalij Ginzburg e Aleksej Abrikosov, tardiva anche in termini di riconoscimenti. Solo nel 2003 Ginzburg e Abrikosov riceveranno il premio Nobel per la fisica, ben mezzo secolo dopo il loro contributo. Non a caso, mediante un gioco di parole basato sulle basse temperature necessarie al fenomeno della superconduttività, due ricercatori francesi, Jean Matricon e Georges Waysand, hanno titolato il loro libro sulla storia della superconduttività Cold Wars, "Guerre fredde". Invece a Mosca i risultati del giovane Fedyakin accesero la curiosità dell'allora sessantenne Boris Deryagin, il potente direttore dell'Istituto di fisica e chimica dell'Accademia delle scienze dell'URSS, uno dei chimici russi più famosi. A lui si deve, fra l'altro, un modello per la stabilità delle particelle sospese in una soluzione, sviluppato negli anni Quaranta, in collaborazione con il grande Landau (premio Nobel per la fisica nel 1962) e noto oggi come teoria DLVO (Deryagin-Landau-Verwey-Overbeek). Un modello simile era stato indipendentemente proposto, anni dopo, dagli olandesi Verwey e Overbeek, un'altra riprova della poca comunicazione fra Est e Ovest. Deryagin chiamò Fedyakin nel suo istituto e nel decennio successivo si buttò a corpo morto sulle ricerche relative a questo strano comportamento dell'acqua. L'istituto si ingrandì fino a occupare una cinquantina di persone. In pochi anni questo laboratorio raggiunse risultati sorprendenti. Per prima cosa venne sviluppato un metodo più rapido per ottenere il liquido esotico, solo poche ore, invece delle settimane necessarie a Fedyakin. Le quantità di miscela liquida a disposizione erano sempre piccolissime, ma si poteva cominciare più seriamente un programma di studio delle sue proprietà fisiche. Si scoprì così che questa miscela, invece di bollire a 100°C lo faceva, a seconda delle condizioni, a temperature superiori ai 200°C-300°C. Inoltre solidificava gradualmente solo a partire dai -30°C e risultava il 10%-20% più densa dell'acqua. Se poi la strana miscela veniva totalmente separata dall'acqua ordinaria, si otteneva una sostanza più stabile, densa una volta e mezzo l'acqua e quindici volte più viscosa, una specie di gel, insomma. Fra l'altro Deryagin ne misurò il peso molecolare, che risultò essere circa 180, quando quello dell'acqua (H20) è 18 (16 dovuti all'atomo di ossigeno e 2 ai due idrogeni). Era come se una decina di molecole d'acqua fossero molto intimamente connesse tra di loro. Conscio del fatto che uno dei problemi maggiori che si incontrano in questo tipo di esperimenti è quello di eventuali contaminazioni dovute ad agenti esterni o a del materiale proveniente dalla superficie delle provette, Deryagin aveva utilizzato, al posto dei capillari di vetro di Fedyakin, tubicini costruiti in quarzo puro, più stabile, tenuti al riparo dal contatto con possibili impurità. Deryagin si convinse, così, di aver scoperto una nuova struttura, una forma particolare dell'acqua e la battezzò acqua anomala o acqua n. L'acqua è comunque una sostanza particolare, realmente sorprendente. A differenza delle altre sostanze la sua forma solida, il ghiaccio, è meno densa di quella liquida. L'acqua raggiunge la sua massima densità a 4°C, per cui il ghiaccio galleggia sull'acqua. La capacità termica dell'acqua è, poi, molto grande rispetto a quella dei suoi componenti, per cui funziona benissimo come serbatoio di calore; di più, questa capacità praticamente si dimezza se si passa alla fase solida o a quella di vapore. Dell'acqua esistono fasi diverse, e del ghiaccio si conoscono ben quattordici tipi diversi, che differiscono per struttura cristallina, ordinamento e densità. Inoltre l'acqua gioca una ruolo fondamentale nei processi biologici, basti pensare che quasi due terzi del nostro peso sono dovuti all'acqua. Tutto fa dell'acqua un materiale affascinante, pronto a stupirci. Per questo, inizialmente, le ricerche di Deryagin, malgrado la sua fama, non trovarono una grande eco al di fuori della Russia. La questione cominciò a cambiare quando nel settembre del 1966, per la prima volta, Deryagin potè presentare le sue ricerche a un congresso internazionale a Nottingham in Gran Bretagna. Qui i suoi risultati incontrarono l'interesse di una personalità molto influente, John D. Bernal, esperto in cristallografia mediante raggi X, che aveva cominciato la propria carriera, negli anni Venti, nel laboratorio del premio Nobel William Bragg. John D. Bernal, universalmente conosciuto come "il saggio" per le sue sterminate conoscenze, era famoso per aver determinato la struttura della grafite e per essere stato uno dei primi a studiare con metodi cristallografici la materia del vivente. Fu Bernal a definire quella di Deryagin «la scoperta del secolo». [...] Il vero problema è che, fin dall'inizio, la gran parte dei ricercatori al lavoro sembra più interessata a trovare una spiegazione delle affermazioni e dei risultati riportati, che non a interrogarsi sulla reale esistenza del fenomeno. Ma il nome poliacqua ha un altro vantaggio, risuona immediatamente con quello delle materie plastiche, allora in auge, come il polietilene o il polipropilene, il famoso moplen scoperto negli anni Cinquanta dal chimico italiano Giulio Natta, risultato che gli era valso il premio Nobel per la chimica nel 1963. Per questo l'acqua polimerica riesce facilmente ad accendere la fantasia degli estranei all'ambiente scientifico. Rapidamente tutti i mass media, i giornali e le televisioni, fanno il loro rumoroso ingresso in questa storia. Fra i titoli da ricordare ci sono quelli del Miami Herald, «Un gruppo di ricercatori della nostra Florida ha creato una nuova forma misteriosa e bizzarra dell'acqua»; del New York Times, «Fra pochi anni il liquido antigelo nelle nostre automobili sarà la poliacqua e con la poliacqua renderemo i nostri abiti impermeabili»; e del Wall Street Journal «Le future forniture per le nostre case saranno fatte d'acqua!». Ci si sbizzarrisce sui possibili usi dell'acqua polimerica, dal suo utilizzo come moderatore nelle centrali nucleari a quello come mezzo lubrificante, dall'impiego come inibitore della corrosione a quello come liquido antigelo, fino alla sua futuristica applicazione come materiale per la costruzione di mobili, sedie, tavoli, stoviglie. La stampa conia l'accattivante termine «acquaplastica». Ed è qui che si inserisce la terribile minaccia di Donahoe di inizio capitolo. Finora, malgrado l'alto numero di gruppi di ricerca coinvolti, la quantità di poliacqua prodotta, messa tutt'assieme, non superava quella di una lacrima. Si ricordi che essa veniva creata in capillari di minuscole dimensioni. Una ricercatrice, con l'aiuto di un laureando particolarmente paziente, si era impegnata con grande determinazione ed era riuscita, dopo mesi di lavoro, a estrarne solo una minuscola goccia. Ma se questa sostanza venisse prodotta in abbondanza e diventasse di uso comune, le conseguenze finirebbero per essere drammatiche. Essendo una forma più stabile dell'acqua potrebbe crescere a spese di quest'ultima e trasformare tutti gli oceani del mondo in una enorme riserva di acqua polimerica, determinando la fine della vita sulla terra. È sorprendente come una simile profezia fosse stata avanzata, pochi anni prima, dallo scrittore Kurt Vonnegut in uno dei suoi racconti fantascientifici più famosi Ghiaccio nove: un rinomato e discusso scienziato aveva trovato un modo per congelare l'acqua ad alte temperature, dando luogo a un particolare tipo di ghiaccio, il ghiacco nove appunto, in grado per contatto di solidificare qualunque cosa; un'arma micidiale capace di annientare ogni forma di vita sulla Terra. [...] Rapidamente il quadro cambia. Se nel 1969 la quasi totalità degli articoli pubblicati era a favore dell'esistenza della poliacqua, nel 1970 assistiamo a una sostanziale parità fra i due campi, favorevole e contrario, accompagnata dalla presenza di molti che non si schierano apertamente, mentre nel 1971 le voci dei favorevoli si riducono al lumicino. Persino quelli che più si erano spesi sull'esistenza della poliacqua fanno marcia indietro. Lippincott, ad esempio, e Allen che dà alle stampe calcoli aggiornati più sofisticati, in antitesi con i suoi lavori precedenti. Talvolta i toni dei contrasti assumono contorni scandalistici e offensivi. Robert Davis della Purdue University in Indiana, che aveva tradotto dal russo un articolo di chimici sovietici che, già anni prima, avevano ritrovato composti organici nella poliacqua, infuriato, ribattezza l'intera faccenda polycrap, liberamente traducibile con "polistronzata". Forse anche perché la poliacqua mostra un colore brunastro. E il più famoso fisico americano, Richard Feynman , premio Nobel nel 1965, commenta, in base a considerazioni energetiche: «Non c'è alcuna poliacqua, perché se esistesse, ci sarebbe anche un animale che non ha alcuna necessità di mangiare. Gli basterebbe bere acqua normale ed evacuare poliacqua». Alla fine lo stesso Deryagin capitola e nel 1973, assieme al suo collaboratore Churaev, in una nota su Nature, ammette che le proprietà dell'acqua anomala (Deryagin si era sempre rifiutato di chiamarla poliacqua, nome che non amava e non condivideva) erano dovute alla presenza di contaminanti. La poliacqua scompare dalla faccia della terra e soprattutto dagli oceani. Di fatto non era mai apparsa. La comunità rese a Deryagin l'onore delle armi, e quest'ultimo continuò a essere attivo e combattivo fino in tarda età. Nella seconda metà degli anni Settanta sviluppò un modello per l'adesione delle particelle sulle superfici solide, tuttora utilizzato e noto come modello DMT (Deryagin-Muller-Toporov). Che cosa rimane, oggi, di questa tumultuosa vicenda della poliacqua? Un buon ammonimento su cui meditare. Da una parte, essa rappresenta uno dei primi casi in cui i mass media giocano un ruolo massiccio, sensazionalistico e spesso dannoso, nell'interfaccia tra il lavoro degli scienziati e la pubblica opinione, dall'altra, fornisce un preciso esempio che la fretta è una cattiva consigliera; troppa la corsa al risultato eclatante, troppe le pubblicazioni scritte in fretta, con risultati parziali e poco supportati. E infine il caso poliacqua provvede una chiara dimostrazione di quanto possa essere duro, a volte maligno e maleducato, lo scontro fra gli scienziati. L'episodio dell'acqua polimerica ci ricorda che la scienza è un processo collettivo e che i ricercatori sono persone; così nella ricerca operano fattori diversi, non solo la razionalità, l'intuizione e la creatività, ma anche l'ambizione, l'invidia, l'illusione e talvolta la disonestà. In fin dei conti, nel caso della poliacqua, il procedere scientifico aveva funzionato: i risultati di un esperimento molto particolare erano stati riportati e quei risultati, se veri, sarebbero stati una scoperta sensazionale. Molti gruppi si erano lanciati nell'impresa, diversi avevano confermato l'esistenza della poliacqua, altri, fin dall'inizio, si erano dimostrati scettici. Il numero degli scettici, con il tempo era andato aumentando, così come quello degli esperimenti che provavano la fatale esistenza dei contaminanti. Alla fine tutti avevano finito per ammettere che la poliacqua non esisteva e non era mai esistita, anche il gruppo che inizialmente l'aveva scoperta. La disputa era finita e l'intera storia aveva trovato un suo epilogo concorde. Nelle storie seguenti le vicende non saranno più così semplici, difficilmente tutti accetteranno una conclusione condivisa e il perché di questa differenza sarà da capire. Qualcosa di simile è avvenuto con i conflitti bellici. La prima guerra mondiale è terminata nel novembre del 1918, la seconda nel 1945, l'8 maggio in Europa e il 2 settembre in Asia, la guerra in Vietnam il 25 aprile del 1975. La stessa guerra fredda ha trovato una sua chiusura con la caduta del muro di Berlino nel novembre 1989. In seguito non sarà più così, nelle nuove guerre gli attori diventano molteplici, gli stati appaltano gran parte del lavoro (in Iraq, oggi, ci sono più mercenari di ditte private che soldati regolari), gli interessi, anche privati, sono sempre più forti, le appartenenze etniche e religiose tendono a prendere il sopravvento, i contorni si fanno sempre meno precisi e ognuno gioca per conto proprio. E le guerre non sembrano avere più fine. | << | < | > | >> |Pagina 101I lettori di Nature, fra le più antiche e prestigiose riviste scientifiche, il 30 giugno del 1988 si trovarono di fronte a un editoriale del tutto particolare. Sotto il titolo Quando credere all'incredibile, John Maddox, fisico teorico e storico redattore capo della rivista, presentava una ricerca su cui chiedeva ai lettori di sospendere il giudizio. Di più, l'articolo in questione, dal titolo Degranulazione dei basofili umani indotta da elevate diluizioni di un antisiero anti-IgE, veniva accompagnato da un'ulteriore nota che recitava: «I lettori del presente articolo possono condividere l'incredulità dei numerosi revisori che ne hanno commentato le diverse versioni nei mesi passati. L'essenza del risultato è che una soluzione acquosa di un anticorpo mantiene la sua capacità di suscitare una risposta biologica anche quando è diluita a tal punto che non vi è che una trascurabile possibilità che una singola molecola dell'anticorpo sia presente nella diluizione. Non vi è alcuna base fisica per tale attività. Con la gentile collaborazione del professor Benveniste (autore dell'articolo), Nature ha pertanto disposto una verifica indipendente di questi esperimenti. Una relazione su questa inchiesta sarà pubblicata al più presto». Jacques Benveniste è un ricercatore francese molto conosciuto e apprezzato, ha al suo attivo centinaia di pubblicazioni, fra cui già quattro articoli su Nature. La sua fama è legata alla scoperta del fattore di attivazione piastrinica, un potente sollecitatore e mediatore di molte funzioni dei leucociti. I leucociti sono i globuli bianchi presenti nel sangue, le sentinelle del sistema immunitario, attivi nei meccanismi di difesa contro gli agenti esterni. Benveniste ha ricoperto anche importanti funzioni pubbliche. Dal 1982 al 1984 ha lavorato come consulente del ministro della ricerca e successivamente è stato nominato rappresentante presso il Consiglio superiore consultivo della ricerca e della tecnologia. L'episodio che stiamo per narrare era nato nella primavera del 1986, quando un team di ricercatori dell'unità 200 dell'INSERM (Istituto nazionale della sanità e della ricerca medica) presso l'università di Parigi-Sud in Francia, diretto appunto da Jacques Benveniste, aveva sottoposto a Nature i risultati di una ricerca che, se confermati, erano una vera e propria bomba dalle conseguenze epocali. Per capire di che cosa si tratta riprendiamo le spiegazioni fornite dallo stesso Benveniste nel suo libro, La mia verità sulla memoria dell'acqua. I basofili sono un tipo di globuli bianchi del sangue in grado di riconoscere alcuni antigeni a cui un paziente può risultare allergico, per esempio il polline. In provetta i basofili reagiscono agli anticorpi, come l'anti-immunoglobulina E, anti-IgE, rilasciando delle sostanze, contenute nei loro granuli. Si parla così di degranulazione dei basofili. Per evidenziare il processo di degranulazione, nelle provette si aggiunge l'anticorpo anti-IgE, che attiva la degranulazione. Dopo un certo intervallo di tempo, si inietta nella provetta una miscela di alcol e blu di toluidina, un colorante. L'alcol fissa i basofili, mentre la toluidina colora solo quei basofili che non sono stati degranulati. Conoscendo la concentrazione iniziale dei basofili e contando al microscopio quelli colorati, si può risalire al numero dei basofili che sono stati attivati e poi si sono degranulati. I basofili attivati rilasciano istamina, che è in grado di inibire la degranulazione. Così, aggiungendo istamina alla provetta, è possibile bloccare la reazione di degranulazione. Nel lavoro presentato a Nature nel 2006, il gruppo di Benveniste affermava di aver mescolato una dose di istamina con l'acqua e di aver poi diluito questa soluzione così tanto che statisticamente l'istamina non poteva essere più presente. Eppure sembrava che la reazione di degranulazione continuasse a essere inibita, come se nell'acqua estremamente diluita fosse rimasta "memoria" della presenza di istamina. [...] Fu così che il 4 luglio 1988 arrivò a Parigi la commissione d'inchiesta scelta da Maddox. Di questa facevano parte lo stesso John Maddox e Walter Stewart, un biochimico americano dell'Istituto nazionale della salute (NIH) che si era costruito un fama di cacciatore di frodi scientifiche: da poco era stato al centro di un controverso caso che aveva coinvolto il premio Nobel per la medicina del 1975, David Baltimore. Nella commissione c'è anche James Randi, conosciuto come the amazing Randi, "lo stupefacente Randi". Illusionista e prestigiatore professionista, insomma un mago, collaboratore negli anni Settanta dei concerti del cantante Alice Cooper, si era trasformato alla fine in divulgatore scientifico. Scettico e demistificatore di professione, molto spesso all'opera nello smascherare imprese paranormali e pseudoscientifiche, era stato fra i fondatori del Comitato per l'investigazione scientifica delle affermazioni sul paranormale (CSICOP), divenuto in seguito Comitato per l'indagine scettica. Di certo un trio dalla composizione insolita, che sollevò non solo l'ostilità e il nervosismo dei ricercatori del gruppo di Benveniste, ma anche dubbi e incomprensioni nel resto della comunità scientifica. Uno dei commenti più salaci comparirà proprio su Nature, nelle lettere all'editore, a nome di un biochimico: «Sir, questa è la conferma definitiva di quanto ho sempre sospettato. Gli articoli sottoposti a Nature vengono recensiti dall'editore, un mago e il suo coniglio». Chissà, forse Maddox voleva ripetere i risultati della visita di Robert Wood, del 1904, al laboratorio di Blondlot. Era convinto che qualcuno stesso giocando un brutto tiro a Benveniste. Si possono leggere i risultati della visita del trio al laboratorio dell'unità 200, durata una settimana, nell'articolo: Esperimenti di "alta diluizione": una delusione comparso su Nature il 28 luglio del 1988. Per prima cosa i tre ottennero l'accesso ai quaderni di laboratorio del gruppo. Scoprirono che gli esperimenti non avevano sempre dato risultati simili. I ricercatori, nell'arco di cinque anni, avevano osservato, accanto a intervalli di tempo in cui l'effetto era chiaramente rilevabile, la presenza di periodi di alcuni mesi in cui le soluzioni fortemente diluite non avevano prodotto degranulazione. Questo veniva imputato alla possibilità che l'acqua distillata usata nei periodi "negativi" fosse, per qualche ragione, contaminata. Inoltre, spesso, c'erano stati campioni di sangue che non degranulavano. Tutti questi esperimenti venivano considerati semplicemente "non funzionanti" e così i dati relativi a questi risultati negativi non venivano destinati alla pubblicazione. Fu chiesto, allora, al gruppo di ricercatori di ripetere l'esperimento, cosa che venne fatta per tre volte. I risultati confermarono in parte i dati originari, mostrando che la reazione era avvenuta anche quando la concentrazione dell'antisiero era ampiamente inferiore al limite di diluizione. La differenza stava nell'andamento dei picchi di attività, che non appariva più periodico, come quello dell'articolo pubblicato su Nature, ma più casuale.
Ancor più significativo fu l'esito di un quarto ulteriore esperimento, che
vide l'intervento diretto di Walter Stewart. Fu lui stesso, in questo caso, a
trasferire l'anti-IgE diluita sui campioni, in una sequenza casuale, mentre fu
l'addetta del gruppo di ricercatori, Elisabeth Davenas, a effettuare la conta
dei basofili,
in cieco.
Questo termine denota un esperimento in cui il ricercatore viene mantenuto
all'oscuro di una o più informazioni che
potrebbero influenzare la raccolta dei dati e l'eventuale
decisione di scartare risultati non significativi. Questa
volta il grafico ottenuto, del tutto diverso da ogni risultato precedente,
mostrava, oltre al primo picco di attività
dovuto alla bassa diluizione, solo altri tre picchi, a grandi
diluizioni, nei quali la percentuale massima di degranulazione era
sorprendentemente pari a quella del primo.
L'effetto, molto singolare, era comunque evidente.
È interessante ricordare che il termine operare in cieco nasce, probabilmente, a seguito dei lavori della commissione che nel 1784 il re Luigi XVI aveva istituito per indagare sull'operato di Franz Anton Mesmer. Mesmer era un medico tedesco formatosi in medicina e filosofia, che, nel 1778, si era trasferito a Parigi, dopo che a Vienna si era ritrovato al centro di diverse controversie. A Parigi ebbe un successo eclatante. Si può ben dire che il mesmerismo divenne una delle ossessioni della Parigi dell'epoca. Secondo Mesmer un fluido fisico, detto magnetismo animale, riempie l'universo. Le malattie nascono dalla mancanza di tale fluido nel corpo umano, ma con l'aiuto di diverse tecniche, come ad esempio l'uso di acqua "magnetizzata" questo fluido può essere riconvogliato nei pazienti provocando "crisi" salutari. I clamori e la diatribe con l'accademia divennero così forti che nel 1784 Luigi XVI nominò la commissione di indagine di cui sopra, composta da diversi scienziati e personalità. Fra gli altri Jean Sylvain Bailly, matematico che sarà eletto sindaco di Parigi il 15 luglio del 1789, il giorno successivo alla presa della Bastiglia; Antoine Lavoisier, fondatore della chimica moderna; Benjamin Franklin, inventore del parafulmine, studioso dei fenomeni elettromagnetici e rappresentante in Francia degli appena nati Stati Uniti d'America; Joseph-Ignace Guillotin, medico, inventore della ghigliottina come metodo umanitario per le esecuzioni capitali. Ironia della sorte: sia Bailly sia Lavoisier finiranno per essere ghigliottinati fra il 1793 e il 1794. Fra i tanti e diversi esperimenti che la commissione Bailly mise in atto, durante i mesi di lavoro per studiare il fenomeno del mesmerismo, spiccano quelli pensati per indagare le due possibili cause delle crisi che Mesmer e i suoi discepoli erano in grado di provocare nei pazienti: la suggestione psicologica o l'azione fisica di un fluido. In un caso, a una donna bendata (resa cieca, da qui il termine «esperimento in cieco») fu detto che nella stanza era presente Deslon, il maggior collaboratore di Mesmer a Parigi (va ricordato che Mesmer si era rifiutato di collaborare con la commissione, a differenza di Deslon), che la stava riempiendo di fluido magnetico. Non era vero, ma la donna ebbe una classica crisi. In un altro, vennero preparate cinque tazze di cui una sola conteneva acqua "magnetizzata" e venne chiesto a una paziente, all'oscuro di quale fosse la tazza giusta, di bere. Dopo la seconda tazza, la donna cominciò ad avere dei tremolii, alla quarta svenne. Quando si risvegliò e chiese da bere per riprendersi, Lavoiser le allungò l'ultima tazza rimasta, proprio quella "magnetizzata"; la donna bevve tranquillamente e si riprese. La commissione concluse che tutti gli effetti delle pratiche mesmeriche erano dovuti al potere della suggestione, al potere della immaginazione. Nel suo libro Bravo brontosauro, il paleontologo ed evoluzionista Stephen Jay Gould scrive che il rapporto della commissione Franklin-Lavoisier è «un capolavoro di logica del ragionamento, una testimonianza duratura del potere e della bellezza della ragione». | << | < | > | >> |Pagina 113A Jacques Benveniste sono stati assegnati ben due premi Ig Nobel, il primo per la chimica nel 1991 «per aver dimostrato che l'acqua è un liquido dotato di intelligenza e capace di mantenere memoria degli eventi», e il secondo, sempre per la chimica nel 1998, «per la sua scoperta che l'acqua non solo possiede una memoria, ma che l'informazione può essere trasmessa attraverso le linee telefoniche e Internet».I premi Ig Nobel rappresentano una caricatura dei Nobel e vengono assegnati ogni anno per risultati «che prima hanno fatto ridere la gente e poi l'hanno fatta pensare». L'onorificenza è organizzata dalla rivista scientifica e umoristica statunitense Annals of Improbable Research e riguarda dieci categorie, fra cui quelle che usualmente compaiono nei premi Nobel. I vincitori sono presentati al pubblico nel corso di una cerimonia che si tiene nel Sanders Theatre dell'università di Harvard, a cui partecipano spesso famosi scienziati già insigniti del Nobel.
L'intento è parodistico, ma finisce per soffrire specularmente dello stesso
problema che affligge il premio Nobel vero e proprio. Mettiamo da parte per un
momento le onorificenze relative a pace, letteratura ed
economia, quest'ultimo tecnicamente non un premio
Nobel, visto che è stato istituito molto più tardi e non
fa parte dell'eredità testamentaria di Alfred Nobel. Tutti
questi premi spesso e volentieri hanno sollevato polemiche e critiche;
limitiamoci quindi a fisica, chimica e
medicina. Il Nobel era nato sia per onorare persone che
erano emerse per aver svolto ricerche eccezionali, sia
per celebrare il ruolo sempre più centrale e importante
della scienza nella società. Nei fatti, però, il premio è
diventato sempre più preda della spettacolarizzazione e
della personalizzazione, che hanno pervaso la nostra società. Si è finito per
perdere di vista l'aspetto di impresa
comune che la scienza possiede; i premiati sono diventati delle star mediatiche,
che spargono le loro opinioni nei campi più disparati, molto spesso lontani
dalla loro specializzazione e molte volte non condivisibili.
Di errori e sbagliate concezioni da parte di premi Nobel, prima e dopo essere stati insigniti, se ne possono elencare molti. Per esempio, nel 1938, il meritatissimo premio Nobel per la fisica a Enrico Fermi fu, tra l'altro, concesso per la scoperta di due nuovi elementi chimici transuranici, l'ausonio e l'esperio, rivelatisi poi inesistenti. Fermi e il suo gruppo di ragazzi di Via Panisperna non si erano resi conto di aver ottenuto non la produzione di nuovi elementi, ma la fissione nucleare. Nel 1958 Sir John Cockcroft, premio Nobel per la fisica nel 1951 per gli studi sulle trasmutazioni nucleari, annunciò di aver raggiunto la fusione nucleare in Inghilterra mediante la macchina ZETA (Zero Energy Thermonuclear Assembly). L'annuncio si rivelò completamente errato.
Per non parlare poi delle vere e proprie baggianate.
William Shockley, premio Nobel per la fisica del 1956
per la scoperta del transistor, partecipò, a partire dagli
anni Ottanta, a una banca per la raccolta e distribuzione
del seme maschile. Convinto assertore dell'eugenetica
e della "gerarchia" rappresentata dal premio Nobel egli
puntava, assieme al miliardario americano Robert Graham, a dar luogo a una folla
di bambini superintelligenti
utilizzando lo sperma di persone "superiori", ad esempio
i premi Nobel e in primo luogo lui stesso. Dall'impresa
sono nate duecentoquindici persone; delle loro storie si
è interessato lo scrittore David Plotz. Chi vuole saperne
di più può rivolgersi al suo libro
La fabbrica dei geni. L'incredibile storia della banca del seme dei Nobel.
Kary Mullis, premio Nobel per la chimica del 1993 per la scoperta
della reazione a catena della polimerasi, alla base della
moltiplicazione del DNA e quindi di tutte le analisi oggi
utilizzate in tantissimi episodi di cronaca nera, nel suo
libro di memorie,
Danzando nudi nel campo della mente,
narra di aver compiuto viaggi astrali e di aver incontrato
una notte, uscendo dal suo laboratorio dopo una dura
giornata di ricerca, gli extraterrestri sotto forma di un
orsetto lavatore luminescente.
Ma ritorniamo alle alte diluizioni e alla biologia digitale. Un tema come l'omeopatia, avendo a che fare direttamente con la salute delle persone, crea facilmente un dibattito rovente. Gli esperimenti sugli effetti delle alte diluzioni sono continuati. Nel 1999 la rivista Inflammation Research pubblica un lavoro dai risultati simili a quelli di Benveniste, fra gli autori Philippe Belon, direttore scientifico dei laboratori omeopatici Boiron, a suo tempo già presente nel lavoro di Nature del 1988, e Madeleine Ennis, conosciuta immunofarmacologa della Queen's University di Belfast. La discussione si riaccende ed è così che nel 2002 la BBC, la televisione pubblica inglese, organizza una riproduzione dell'esperimento. Tutti possono leggere la trascrizione della trasmissione all'indirizzo Internet www.bbc.co.uk/science/horizon/2002/homeopathytrans.shtml. Gli esperimenti, in cieco, vengono condotti nei laboratori dello University College of London, sotto la supervisione del vicepresidente della Royal Society, John Enderby. Ancora una volta il risultato conferma che gli effetti dovuti alla soluzione altamente diluita sono assolutamente identici a quelli dovuti alla semplice acqua distillata: l'acqua non pare ricordarsi per nulla di essere stata in contatto con l'istamina. Riguardo alla biologia digitale, nel gennaio 2006 esce su The FASEB Journal un articolo dal titolo È possibile digitalizzare specifici segnali biologici? nato da una ricerca finanziata dal DARPA, l'Agenzia per la ricerca avanzata del ministero della Difesa degli Stati Uniti e diretta da Wayne Jonas, responsabile dell'Ufficio per le medicine alternative dell'Istituto nazionale della salute, con la collaborazione dello stesso Benveniste. Le conclusioni sono chiare: i due team americani non trovano alcun effetto, solo nel caso degli esperimenti condotti dal team di Benveniste, nel frattempo deceduto, si ritrovano talvolta dei risultati positivi. Da ultimo, nel luglio 2007 la rivista Homeopathy, espressamente rivolta alla pratica clinica dell'omeopatia, dedica un intero numero alla "memoria dell'acqua". Gli articoli che compaiono in questa edizione sollevano una forte discussione e nei quaderni successivi della rivista si ritrovano interventi molto interessanti. Il più intrigante è quello di Bernard Poitevin, uno dei firmatari dell'iniziale articolo del 1988. Ricordando i suoi studi in omeopatia e la sua successiva collaborazione con Benveniste, nata nel 1981 e durata fino al 1991, Poitevin afferma che tutte le ricerche legate alla memoria dell'acqua erano esplicitamente nate per investigare gli effetti biologici dei farmaci omeopatici. Ne fanno fede i suoi contatti con Michel Aubin, direttore di ricerca dei laboratori omeopatici di Francia (LHF), a cui l'articolo del 1988 era stato dedicato, e i legami tra Benveniste e Philippe Belon della Boiron. Punta l'attenzione sui contratti firmati tra l'INSERM 200, la Boiron e la LHF e sul fatto che gli stipendi di Elisabeth Davenas e Francis Beauvais erano pagati dalla Boiron. Rivela che nella settimana successiva alla visita di Maddox, Stewart e Randi, i ricercatori dell'INSERM 200 avevano provato a rifare gli esperimenti, ma che la Davenas non era stata in grado di ripeterli e che c'erano stati diversi problemi. Nei due anni successivi la Davenas aveva prodotto alcuni risultati positivi, ma gli altri ricercatori no. È comunque convinto che non ci sia stata alcuna frode deliberata. Per quanto attiene alla memoria dell'acqua, infine, una ricerca sperimentale pubblicata su Nature nel 2005, sulla dinamica della rete di legami a idrogeno presenti nell'acqua, ha dimostrato, mediante misure sulle vibrazioni del legame idrogeno-ossigeno nell'infrarosso, che «l'acqua liquida perde memoria delle correlazioni nella sua struttura» in meno di 50 femtosecondi, qualcosa come 50x10^-15 secondi o 0.00000000000005 secondi, una memoria invero molto labile. | << | < | > | >> |Pagina 159Alabamina, anglohelvetio, ausonio, austrio, berzelio, carolinio, celtio, coronio, coulumbio, dacinio, damario, davyo, decipio, demonio, denebio, didymio, donario, dubhio, esperio, eurosamario, euxenio, florentio, glaucodymio, gourio, helvetio, illinio, ilmenio, incognito, ionio, junonio, kosmio, leptinio, lucio, masurio, moldavio, mosandio, metacerio, monio, moseleyo, neokosmio, neptunio, nipponio, newtonio, pelopio, philippio, polinio, pluranio, rogerio, russio, ruthenio, sirio, thorinio, vestio, virginio, victorio, wasmio, welsio, ytterbio. No, non è un'antica cantilena o un particolare scioglilingua per ricordare nozioni geografiche o storiche; è solo una lista parziale di falsi elementi chimici (alcuni di questi nomi sono stati poi riusati in seguito per elementi veri) scoperti nel corso di un paio di secoli. Un elemento chimico è una sostanza semplice composta interamente da atomi con lo stesso numero atomico, il numero di protoni nel nucleo, che è pari a quello degli elettroni presenti attorno al nucleo. Il numero di neutroni nel nucleo può invece far variare il peso atomico, di conseguenza un elemento può essere costituito da diversi isotopi così chiamati perché occupano lo stesso posto nella tavola periodica di Mendeleev degli elementi. La maggior parte degli elementi chimici è stata scoperta nel XVIII e XIX secolo. Attualmente si conoscono 116 elementi aventi numero atomico da 1 a 116, nel nucleo sono presenti da 1 a 116 protoni. Diversi di questi elementi non esistono in natura e vengono prodotti artificialmente all'interno delle reazioni nucleari. Sono elementi artificiali il tecnezio (numero atomico 42), il prometeo (numero atomico 61), e i così detti elementi transuranici con numero atomico superiore a 92, il numero atomico dell'uranio. I nomi dei vari elementi chimici hanno diverse origini, inclusi gli appellativi mitologici, i toponimi di città, le regioni e le nazioni, le proprietà dell'elemento o dei suoi composti, come il colore, l'odore e la capacità o incapacità di combinarsi. Molti ricalcano i cognomi di famosi ricercatori e scienziati. Talvolta l'origine della denominazione rimane oscura. Per quanto riguarda gli elementi transuranici si è deciso che, a partire dall'elemento di numero atomico 110, il loro nome debba avere a che fare con il posto occupato nella tavola periodica, ununnilium 110, unununium 111, ununbium 112, e via dicendo. I metodi utilizzati per la scoperta degli elementi sono molto cambiati nel corso dei secoli. Nell'Ottocento e nel primo Novecento si faceva uso delle proprietà delle nuove sostanze, la separabilità, i colori dei composti, la forma dei cristalli e la reattività. A partire dai primi decenni del Novecento fanno il loro ingresso le varie spettroscopie ottiche, gli spettri di assorbimento, di fosforescenza e gli spettri a raggi X. E soprattutto mediante l'uso combinato del procedimento di Henry Moseley, basato sui raggi X, con la teoria quantistica di Niels Bohr della struttura elettronica degli atomi, che si riesce, infine, ad avere un metodo affidabile per stabilire il numero atomico degli elementi, essenziale per definire il loro posto nella tabella periodica.
Il sistema periodico serve a rappresentare tutti gli elementi chimici in una
tavola che mette in evidenza il
regolare ripetersi delle loro proprietà chimiche. La scoperta della tavola
periodica negli anni sessanta dell'Ottocento va considerata uno dei più
importanti passi avanti
scientifici mai fatti. Ogni elemento ha il suo spazio nella
tavola e persino quegli elementi artificiali, non ancora
scoperti, hanno il loro posto vuoto già pronto. Semplicemente dalla conoscenza
della posizione di un elemento nella tavola periodica possiamo fare delle
affermazioni significative sulle loro proprietà e sul loro modo di
comportarsi in diverse situazioni. Per lo scrittore
Primo Levi
il sistema periodico «era una poesia, più alta e più
solenne di tutte le poesie digerite in liceo».
L'idea di una tabella periodica degli elementi giunse a maturità durante il decennio del 1860. Prodromi necessari a questa scoperta erano stati la legge delle proporzioni multiple di John Dalton del 1803 e gli studi degli italiani Amedeo Avogadro e Stanislao Cannizzaro. La legge di Dalton affermava che quando due elementi si combinano tra loro per formare dei composti, la quantità in peso del primo e quella del secondo stanno fra loro in rapporti razionali semplici, rapporti tra numeri interi. Si poteva cominciare a parlare di peso atomico. Cannizzaro, in un'importante relazione, illustrata al famoso congresso internazionale di chimica di Karlsruhe del 1860, presentò una riformulazione della legge da parte di Avogadro, che fu il vero e proprio catalizzatore della scoperta del sistema periodico. Cannizzaro distinse per la prima volta tra atomi e molecole e definì in maniera affidabile concetti quali quello della valenza: la capacità degli atomi di formare legami chimici con altri elementi. Così in un decennio ben sei ricercatori scoprirono indipendentemente la possibilità di ordinare gli elementi in una sistema periodico. Il francese Alexandre Beguyer de Chancourtois nel 1862, gli inglesi John Newlands e William Odling nel 1864, il danese Gustavus Hinrichs nel 1867, il tedesco Lothar Meyer nel 1868 e il russo Dmitrii Mendeleev nel 1869. Fra i diversi studiosi, in particolare tra Meyer e Mendeleev, ci fu un duro scontro per il riconoscimento della priorità. Mendeleev fu il più conseguente nell'utilizzare la ricorrenza di proprietà simili, accomodando nella sua tavola gli elementi già conosciuti e lasciando degli spazi vuoti per quelli ancora da scoprire. Infatti la classificazione originaria di Mendeleev poneva gli elementi uno di seguito all'altro secondo il loro peso atomico. Dopo un certo numero di elementi, si poteva osservare che le proprietà ricalcavano quelle di componenti già presenti: si era in grado così di costruire altre righe della tavola, in modo tale che ogni colonna raggruppasse elementi affini. Come scrive lo stesso Mendeleev: «Disponendo gli elementi in ordine successivo di peso atomico e andando a capo nello scriverli, si vengono a trovare in colonna gli elementi simili». Per i posti che nella tabella rimanevano vuoti, Mendeleev ipotizzò che sarebbero stati occupati da elementi ancora sconosciuti. In capo a quindici anni vennero scoperti gli elementi di peso atomico 45, 68 e 70 e questo rese Mendeleev sempre più famoso. L'elemento di peso atomico 45, che era stato previsto da Mendeleev con il nome di eka-boron (il prefisso eka viene dal sanscrito e significa uno), venne scoperto dal chimico svedese Lars-Fredrik Nilson nel 1879. Fu chiamato scandio dal latino scandia per Scandinavia. Nell'odierna tavola periodica, organizzata non secondo il peso ma rispetto al numero atomico, lo scandio occupa il posto numero 21. Eka-aluminum era invece il nome dato da Mendeleev all'elemento ipotetico di peso atomico 68, scoperto in seguito nel 1878 dal chimico francese Paul-Emile Lecoq de Boisbaudan. Non è chiaro se il nome scelto per questo elemento, gallio, derivi dal latino gallia per Francia o dal latino gallus per Lecoq. Il numero atomico del gallio è 31. Chi, invece, non aveva dubbi sul fatto che la denominazione gallio avesse a che fare con la Francia, fu il chimico tedesco Clemens-Alexander Winkler. Quando nel 1886 scoprì l'elemento di peso atomico 70, previsto da Mendeleev con il nome di eka-silicon, non esitò a chiamarlo germanio (numero atomico 32) in onore della Germania. Troppo spesso la scoperta di nuovi elementi è stata utilizzata per solleticare i diversi nazionalismi. Le ipotesi di Mendeleev ebbero quindi un gran successo e giustamente oggi lo celebriamo assieme alla tavola degli elementi. Ma, a onor del vero, bisogna anche ricordare che delle venti previsioni da lui fatte, diverse erano errate: per esempio gli elementi newtonio e coronio, così come la presenza di ben sei nuovi elementi che dovevano esistere tra l'idrogeno e il litio, il primo di peso atomico 1, l'altro di peso atomico 7. Tali elementi che non esistono affatto, nell'odierno sistema periodico l'idrogeno e il litio sono, dato il loro numero atomico, il numero uno e il numero tre. L'errore di Mendeleev era dovuto al fatto che ancora si doveva scoprire sia l'esistenza degli elettroni, sia quella del nucleo atomico; e nulla si sapeva dell'esistenza dei raggi X, che avrebbero permesso a Moseley nel 1914 (poco prima di morire nella prima guerra mondiale) di mettere a punto un'utile tecnica sperimentale per la derivazione del numero atomico, ben più selettivo del peso atomico, il quale è complicato dalla presenza dei neutroni, diversa nei differenti isotopi. In tutto l'Ottocento, la tecnica principe per la purificazione, e quindi per la scoperta di nuovi elementi, era la cristallizzazione frazionaria. Questo richiedeva spesso migliaia di ricristallizzazioni e mesi di lavoro. Errori e facili illusioni erano spesso dietro l'angolo. Di conseguenza la lista di false scoperte, in questo secolo, è lunga, particolarmente estesa nel caso delle terre rare. Le terre rare sono un gruppo di minerali poco diffusi e costituiti da numerosi elementi simili nel comportamento chimico e quindi separabili correttamente con grandissime difficoltà. Molte delle errate denominazioni citate all'inizio del capitolo si riferiscono proprio alle terre rare. Gli errori sono continuati anche nel Novecento, malgrado il raffinarsi delle tecniche. La tavola periodica con i suoi posti vuoti era là invitante e talvolta non si è trattato solo di errori, ma anche di frodi. Nel frattempo l'individuazione della radioattività aveva aperto la porta alla scoperta degli elementi così detti "instabili", dotati talvolta di tempi di vita medi molto brevi e successivamente alla produzione di elementi artificiali, non esistenti in natura. | << | < | > | >> |Pagina 215Luglio 1610. Galileo punta il suo cannocchiale verso Saturno. Il suo strumento non è ancora così sofisticato e potente da distinguere gli anelli, per questo essi gli appaiono come dei rigonfiamenti laterali del pianeta. Galileo scrive: «Saturno non è un astro singolo, ma è composto di tre corpi, che quasi si toccano, e non cambiano né si muovono l'uno rispetto all'altro. Essi sono disposti in fila lungo lo zodiaco, e quello centrale è tre volte più grande degli altri due». Lo scienziato dà al pianeta il nome di «Saturno tricorporeo». Nei mesi seguenti egli osserva che i corpi laterali sono spariti. Durante il moto orbitale di Saturno, il piano degli anelli, infatti, cambia direzione rispetto alla Terra. Quando si presentano di taglio, gli anelli non possono essere visti. Nel corso degli anni, diversi astronomi confermano l'aspetto di Saturno e le sue variazioni, ma è solo nel 1659 che Huygens lo spiega con la presenza degli anelli. Galileo aveva commesso un errore. Nella decade 1980-1990 si verificano negli Stati Uniti diversi casi di frode nelle scienze, in particolare in quelle biomediche. Il Congresso degli Stati Uniti istituisce varie commissioni sul problema, ma come spesso accade, il troppo zelo sconfina nella persecuzione. Alla fine del decennio, sul New York Times del 30 luglio 1989, compare questo commento di Stephen Jay Gould: «Diverse commissioni del Congresso hanno condotto inchieste sulla cattiva condotta scientifica. Talvolta esse sembrano pronte a considerare anche gli errori come un uso improprio dei fondi federali. Seguendo questo modello i Medici a Firenze avrebbero potuto perseguire Galileo per la sua errata interpretazione di Saturno». Gli errori sono presenti nella scienza come in ogni attività umana e spesso hanno avuto un ruolo positivo nel progresso della conoscenza. L'inganno è un'altra cosa, è necessario mantenere chiara la distinzione. Inoltre la competizione nella scienza si intensifica sempre più. Talvolta il modo per promuovere e distinguere la propria scoperta da quella di un altro consiste nell'esagerarne gli errori o le errate interpretazioni. Se si affrontano i casi di errore come se fossero episodi fraudolenti, tutti ne hanno da perdere. Si crea un clima di scontro, sfavorevole alla risoluzione dei problemi, e l'opinione pubblica finisce per avere l'impressione che la scienza sia un'istituzione monolitica, ostile alle nuove idee e implacabile nella difesa delle proprie verità stabilite. La percezione che compiere un errore sia la cosa peggiore che possa capitare a uno scienziato, l'idea che ogni sbaglio possa essere scambiato per grande incompetenza non solo crea un atteggiamento arroccato, ma in certi casi può contribuire a far nascere un inganno come tentativo di coprire un errore onesto. Occorre tornare a decriminalizzare l'errore. | << | < | > | >> |Pagina 224Affrontiamo qui il problema delle frodi, delle loro caratteristiche, del loro numero e modalità, partendo dal CUDOS e dal PLACE, dal passaggio dalla scienza accademica a quella post-accademica ipotizzato e narrato da John Ziman nel suo libro La vera scienza del 2000.Secondo Ziman un nuovo modello per la produzione della conoscenza scientifica è emerso negli ultimi anni, essenzialmente a partire dalla fine della guerra fredda. Al sistema caratterizzato dal sociologo Robert Merton con l'acronimo CUDOS: comunitarismo, universalismo, disinteresse, originalità e scetticismo (in origine le ultime due erano accorpate nella singola norma dell'organizzato scetticismo) si è passati al PLACE: proprietario, locale, autoritario, commissionato, esperto. Nel 1942 Merton suggerì, in un breve saggio, che «le prescrizioni, proscrizioni, preferenze e autorizzazioni», che gli scienziati si sentono tenuti a seguire, potessero essere riassunte in un insieme di poche norme (il CUDOS), che definiscono la filosofia, l'ethos della scienza. Il comunitarismo esige che i prodotti dell'agire scientifico siano di tutti e che, nel loro esercizio, gli scienziati debbano affermare il carattere pubblico della conoscenza. Nelle parole esplicite di Merton: «I diritti di proprietà nella scienza devono essere ridotti al minimo». A cui aggiunge «La segretezza è l'antitesi di questa norma». L' universalismo comporta che i contributi alla scienza non debbano essere esclusi per ragioni legate a razza, nazionalità, religione, classe o altre qualità personali non rilevanti. Questo non significa che le affermazioni scientifiche siano universalmente applicabili, o universalmente vere, vuol dire che i limiti alle affermazioni scientifiche vengono posti dalle regole che la scienza si dà e non dai pregiudizi della società. Il disinteresse non indica che gli scienziati non siano mossi da intense motivazioni personali. In genere gli scienziati sono fortemente appassionati e legati alle proprie azioni e idee. Disinteresse vuol dire subordinare il proprio interesse al controllo delle istituzioni, essere pronti a sottoporre i risultati, prima della pubblicazione, all'esame critico da parte di esperti, ed essere disposti a correggere le proprie convinzioni e a ritrattare i propri errori. Chi non lo fa viene severamente colpito. Secondo Merton, è a questa norma che risale il fatto che le frodi siano praticamente assenti nel mondo scientifico; col senno di poi una considerazione ottimista. L' originalità e lo scetticismo agiscono da utile stimolo e freno all'impresa scientifica. L'originalità premia chi arriva per primo, chi fornisce un contributo nuovo, stimola le scoperte e le nuove ipotesi. Lo scetticismo, soprattutto nella sua forma organizzata, sottopone a un meccanismo di controllo collettivo l'intera impresa scientifica. Esso richiede che una nuova conoscenza venga verificata e giustificata prima della sua accettazione e infine rende gli scienziati responsabili di fronte alla comunità a cui appartengono. Nelle parole di Ziman: «La scienza non possiede un meccanismo formale per risolvere ufficialmente una controversia, e una discussione accademica può continuare tanto a lungo quanto si desidera portarla avanti. Ma la comunità scientifica spesso adopera la sanzione definitiva dello scettico: la noncuranza». Queste norme, come le norme sociali, non vengono esplicitamente apprese o insegnate, esse vengono interiorizzate nella pratica scientifica, la loro forza sta nel premio che portano con sé. L'acronimo CUDOS è stato scelto a partire dall'antico greco Κυδος: fama e riconoscimento in seguito a un atto, a un coronamento. Le norme di Merton caratterizzano la scienza nel suo periodo accademico e, anche se sono un'idealizzazione più che una precisa descrizione della pratica scientifica, rappresentano bene gli ideali della scienza nel periodo successivo alla seconda guerra mondiale, influenzato dalle politiche roosveltiane. Non è un caso che il saggio del 1973, La struttura normativa della scienza, che codifica definitivamente le prescrizioni mertoniane, sia la rielaborazione di uno scritto del 1942, Scienza e tecnologia nell'ordine democratico, ristampato nel 1949 sotto il titolo Scienza e struttura sociale democratica. È rifacendosi a queste norme che nasce, per esempio, la definizione di scienza della Società americana di fisica: «La scienza è un'impresa sistematica volta a costruire la conoscenza sul mondo e a organizzare questo sapere in leggi verificabili e in teorie. Il successo e la credibilità della scienza sono ancorate alla buona volontà dello scienziato di esporre le proprie idee e i propri risultati alla verifica indipendente e alla replica da parte degli altri scienziati, il che richiede un completo e aperto scambio di dati, di procedure e di materiali; e secondariamente di abbandonare o modificare le conclusioni accettate dopo un confronto con evidenze sperimentali più complete e affidabili. L'aderenza a questi principi fornisce un meccanismo per l'autocorrezione, meccanismo che è il fondamento della credibilità della scienza». Il fatto, però, è che la scienza nel suo farsi, la vita e l'organizzazione quotidiana dell'impresa scientifica vanno discostandosi sempre di più dal vecchio modello accademico, stanno acquisendo nuove forme e nuove convenzioni. A differenza della scienza tradizionale, la nuova forma involve un arrangiamento fortemente ibrido tra università, centri di ricerca, imprese private, governi nazionali e sovranazionali. La ricerca scientifica diventa sempre più finalizzata. I ricercatori sono sempre più costretti a perseguire problemi dettati dai privati, dalle industrie e dai governi, a scapito di problemi intrinsecamente interessanti, guidati dalla sola curiosità. La conoscenza così generata diventa maggiormente frammentaria e meno integrata in un sistema generale. Le dirette sponsorizzazioni aprono delicati conflitti di interesse e etici. Per questo Ziman ha introdotto il concetto di scienza post-accademica e la sostituzione del sistema normativo del CUDOS con quello del PLACE. Proprietaria, la conoscenza non è più pubblica, appartiene a chi la produce. Locale, l'impresa scientifica è finalizzata a risolvere problemi fortemente locali e i suoi referenti sono gli interessi locali. Autoritaria, il controllo è gerarchico, la ricerca è decisa da manager, il ricercatore diventa un lavoratore della conoscenza subordinato. Commissionata, il progetto di ricerca è svolto su commissione e il ricercatore si trasforma in consulente. Esperta, il ruolo dello scienziato si confonde con quello dell'esperto, del risolutore di problemi.
Le università e i centri di ricerca sono sempre più
simili a corporazioni private. La loro produzione deve
essere calcolabile direttamente in termini economici.
Abbiamo persino cominciato a misurare la conoscenza
in crediti e debiti. «Non è un caso» scrive Ziman, «che
queste norme formino l'acronimo PLACE. Un posto
(place),
piuttosto che la fama e gli onori
(cudos),
è tutto quello che si ottiene, nei casi migliori, all'interno della
scienza post-accademica».
Orbene, si ritiene qui che questo cambiamento di norme si riverberi anche sul tema delle frodi, il loro numero, la loro modalità e tipologia, e in generale sul problema della buona o cattiva condotta scientifica. [...] Contemporaneamente la scienza post-accademica privatizza la conoscenza. Si pensi alla discussione sui diritti di autore e sui brevetti, alle licenze, alle banche dati e al software a pagamento. Si guardi al crescente ruolo del segreto posto sui risultati delle ricerche. In molti casi le industrie che finanziano le ricerche esigono un veto sulla pubblicazione o impongono ritardi di anni nella divulgazione dei dati. La privatizzazione della conoscenza comporta che l'accesso a materiali, strumenti, dati, analisi venga ristretto, e ancora che questi stessi possano servire per lo sviluppo di interessi privati. E anche in questo caso c'è uno spazio enorme per la manipolazione, la frode e l'inganno. Nondimeno nella scienza post-accademica il legame fra la ricerca e i bisogni sociali diventa più intenso. Per ottenere fondi per la sperimentazione occorre spiegarne i benefici ai diversi gruppi di interesse, dai cittadini che pagano le tasse ai gruppi che si organizzano su temi specifici, al ceto politico, ai media. E tutti questi gruppi finiscono per avere il potere di togliere o dare fondi a particolari settori. Basta ricordare le varie maratone televisive destinate a raccogliere fondi, per esempio medici. Questo aumentato interesse pubblico, accanto alla crescente privatizzazione della scienza, fa sì che nel progettare le ricerche si dia la priorità alle possibili applicazioni immediate e che le ricerche a lungo termine finiscano per essere abbandonate, perché non sono adeguatamente supportate. Nella scienza post-accademica la ricerca non viene più spinta dalla curiosità, con tutti i pericoli relativi al mancato sviluppo di quella di base. E ancora una volta si presenta la tentazione di arrivare, comunque, ai risultati che si aspetta il committente.
In poche parole nel passaggio dalla scienza accademica a quella
post-accademica siamo di fronte a questa
situazione: più ricerca, più esperti, più interessi, più frodi.
|