Autore Luciano Floridi
Titolo Etica dell'intelligenza artificiale
SottotitoloSviluppi, opportunità, sfide
EdizioneCortina, Milano, 2022, Scienza e idee 340 , pag. 384, ill., cop.fle., dim. 14x22,5x2,3 cm , Isbn 978-88-3285-409-1
OriginaleThe Ethics of Artificial Intelligence. Principles, Challenges, and Opportunities
CuratoreMassimo Durante
TraduttoreMassimo Durante
LettoreCorrado Leonardo, 2022
Classe scienze sociali , scienze cognitive , intelligenza artificiale , filosofia , informatica: fondamenti , informatica: sociologia












 

| << |  <  |  >  | >> |

Indice


    Prefazione                                                            11


    PRIMA PARTE - Comprendere l'intelligenza artificiale

1.  Passato: l'origine dell'intelligenza artificiale                      21
1.1 Introduzione: la rivoluzione digitale e l'intelligenza artificiale    22
1.2 Il potere di scissione del digitale:
    tagliare e incollare la modernità                                     26
1.3 Nuove forme dell'agire                                                32
1.4 IA: un ambito di ricerca in cerca di una definizione                  34
1.5 Conclusione: etica, governance e design                               35

2.  Presente: IA come nuova forma dell'agire e non dell'intelligenza      39
2.1 Introduzione: che cos'è l'IA? "La riconosco quando la vedo"           40
2.2 IA come controfattuale                                                44
2.3 Le due anime dell'IA: ingegneristica e cognitiva                      48
2.4 IA: un divorzio riuscito nell'infosfera                               53
2.5 L'uso umano degli esseri umani e delle interfacce                     58
2.6 Conclusione: chi si adatterà a chi?                                   61

3.  Futuro: lo sviluppo prevedibile dell'IA                               65
3.1 Introduzione: scrutare nei semi del tempo                             66
3.2 Dati storici, ibridi e sintetici e il bisogno di ludicizzazione       67
3.3 Problemi difficili, problemi complessi e il bisogno di avvolgimento   77
3.4 Il design come futuro dell'IA                                         83
3.5 Conclusione; l'IA e le sue stagioni                                   85


    SECONDA PARTE - Valutare l'intelligenza artificiale

4.  Un quadro unificato di principi etici per l'IA                        91
4.1 Introduzione: troppi principi?                                        92
4.2 Un quadro unificato di cinque principi per l'IA etica                 93
4.3 Beneficenza: promuovere il benessere, preservare la dignità e
    sostenere il pianeta                                                  96
4.4 Non maleficenza: privacy, sicurezza e "cautela della capacità"        97
4.5 Autonomia: il potere di "decidere di decidere"                        98
4.6 Giustizia: promuovere la prosperità, preservare la solidarietà,
    evitare l'iniquità                                                    99
4.7 Esplicabilità: rendere possibili gli altri principi tramite
    l'intelligibilità e la responsabilità                                100
4.8 Una visione sinottica                                                101
4.9 L'etica dell'IA: da dove e per chi?                                  102
4.10 Conclusione: dai principi alle pratiche                             103

5.  Dai principi alle pratiche: i rischi di comportamenti
    contrari all'etica                                                   107
5.1 Introduzione: traduzioni rischiose                                   107
5.2 Lo shopping etico                                                    109
5.3 Il "bluewashing" etico                                               111
5.4 Il lobbismo etico                                                    113
5.5 Il dumping etico                                                     115
5.6 L'elusione dell'etica                                                118
5.7 Conclusione: l'importanza di conoscere meglio                        120

6.  Etica soft e governance dell'IA                                      123
6.1 Introduzione: dall'innovazione digitale alla governance del digitale 123
6.2 Etica, regolazione e governance                                      127
6.3 La compliance nei confronti delle norme: necessaria ma insufficiente 129
6.4 Etica hard e soft                                                    130
6.5 L'etica soft come quadro etico                                       134
6.6 Analisi dell'impatto etico                                           138
6.7 Preferibilità digitale e cascata normativa                           140
6.8 Il duplice vantaggio dell'etica digitale                             141
6.9 Conclusione: l'etica come strategia                                  143

7.  La mappatura dell'etica degli algoritmi                              145
7.1 Introduzione: una definizione operativa di algoritmo                 145
7.2 La mappa dell'etica degli algoritmi                                  148
7.3 Prove inconcludenti che portano ad azioni ingiustificate             150
7.4 Prove imperscrutabili che portano all'opacità                        153
7.5 Prove fuorvianti che portano a pregiudizi (bias) non voluti          159
7.6 Risultati ingiusti che portano alla discriminazione                  163
7.7 Effetti trasformativi che sollevano sfide per l'autonomia
    e la privacy informativa                                             166
7.8 Tracciabilità come presupposto della responsabilità morale           171
7.9 Conclusione: l'uso buono e cattivo degli algoritmi                   175

8.  Cattive pratiche: l'uso improprio dell'IA per il male sociale        177
8.1 Introduzione: l'uso criminale dell'IA                                177
8.2 Preoccupazioni                                                       181
8.3 Minacce                                                              189
8.4 Possibili soluzioni                                                  205
8.5 Sviluppi futuri                                                      215
8.6 Conclusione: dagli usi malvagi dell'IA all'IA socialmente buona      219

9.  Buone pratiche: l'uso dell'IA per il bene sociale                    221
9.1 Introduzione: l'idea di IA per il bene sociale                       222
9.2 Una definizione di AI4SG                                             227
9.3 Sette fattori essenziali per il successo dell'AI4SG                  231
9.4 Conclusione: fattori dí bilanciamento per l'IA per il bene sociale   255

10.  Macchine ultraintelligenti, singolarità e altre distrazioni
     fantascientifiche                                                   259
10.1 Introduzione: l'aggiornata paura ancestrale dei mostri              259
10.2 Credenti e miscredenti nella vera IA: un dibattito sulla fede       263
10.3 Gli adepti della singolarità: la fine è vicina,
     la vera IA sta arrivando                                            264
10.4 IA-teismo dell'IA: quello che i computer non possono fare,
     presumibilmente                                                     270
10.5 Adepti della singolarità e atei dell'IA: una diatriba inutile       273
10.6 Conclusione: il problema non è HAL ma l'umanità nel suo complesso   276

11.  La società per la buona IA                                          279
11.1 Introduzione: quattro modi per realizzare una società
     per la buona IA                                                     279
11.2 Chi possiamo diventare: rendere possibile l'umana realizzazione
     di sé, senza svalutare le capacità umane                            282
11.3 Cosa possiamo fare: migliorare l'agire umano,
     senza rimuovere la responsabilità umana                             283
11.4 Cosa possiamo conseguire: incrementare le capacità della società,
     senza ridurre il controllo umano                                    284
11.5 Come possiamo interagire: coltivare la coesione sociale,
     senza erodere l'autodeterminazione umana                            285
11.6 Raccomandazioni per una società della buona IA                      287
11.7 Conclusione: la necessità di politiche concrete e costruttive       295

12.  Il gambetto: l'impatto dell'IA sul cambiamento climatico            297
12.1 Introduzione: il potere duplice dell'IA                             297
12.2 L'IA e le "transizioni gemelle" dell'Unione Europea                 303
12.3 IA e cambiamento climatico: sfide etiche                            304
12.4 IA e cambiamento climatico: l'impronta ecologica                    307
12.5 Tredici raccomandazioni a favore dell'IA contro
     il cambiamento climatico                                            312
12.6 Conclusione: una società più sostenibile e una biosfera più sana    316

13.  L'IA e gli obiettivi di sviluppo sostenibile delle Nazioni Unite    319
13.1 L'IA per il bene sociale e gli obiettivi di sviluppo sostenibile
     delle Nazioni Unite                                                 320
13.2 Valutare le evidenze dell'IAXOSS                                    321
13.3 L'IA per promuovere l'"azione per il clima"                         326
13.4 Conclusione: un programma di ricerca per l'IAXOSS                   329

14.  Conclusione: il verde e il blu                                      331
14.1 Introduzione: dal divorzio tra agire e intelligenza
     al matrimonio tra il verde e il blu                                 331
14.2 Il ruolo della filosofia come design concettuale                    334
14.3 Il bellissimo errore di natura                                      336


Ringraziamenti                                                           341
Bibliografia                                                             347

 

 

| << |  <  |  >  | >> |

Pagina 11

PREFAZIONE



Istruzione, affari e industria, viaggi e logistica, banche, vendita al dettaglio e shopping, intrattenimento, welfare e sanità, politica e relazioni sociali, in breve la vita stessa per come la conosciamo oggi è diventata inconcepibile senza la presenza di pratiche, prodotti, servizi e tecnologie digitali. Chiunque non sia stupito di fronte a una tale rivoluzione digitale non ne ha afferrato la portata. Stiamo parlando di un nuovo capitolo della storia umana. Naturalmente, molti altri capitoli l'hanno preceduto. Erano tutti ugualmente significativi. L'umanità ha sperimentato un mondo prima e dopo la ruota, la lavorazione del ferro, l'alfabeto, la stampa, il motore, l'elettricità, la televisione o il telefono. Ogni trasformazione è unica. Alcune di queste hanno cambiato in maniera irreversibile il modo in cui comprendiamo noi stessi, la nostra realtà e l'esperienza che ne facciamo, con implicazioni complesse e di lungo periodo. Stiamo ancora scoprendo nuovi modi per sfruttare la ruota, basti pensare alla ghiera cliccabile dell'iPod. Al contempo, è inimmaginabile ciò che l'umanità potrà ottenere grazie alle tecnologie digitali. Nessuno nel 1964 (vedi capitolo 1) avrebbe potuto immaginare come sarebbe stato il mondo solo cinquant'anni dopo. I futurologi sono i nuovi astrologi. Eppure, è anche vero che la rivoluzione digitale accade una volta sola, e cioè adesso. Questa particolare pagina della storia umana è stata voltata ed è iniziato un nuovo capitolo. Le generazioni future non sapranno mai com'era una realtà esclusivamente analogica, offline, predigitale. Siamo l'ultima generazione che l'avrà vissuta.

Il prezzo di un posto così speciale nella storia lo si paga con incertezze che destano preoccupazioni. Le trasformazioni indotte dalle tecnologie digitali sono sorprendenti. Giustificano un po' di confusione e di apprensione. Basta guardare i titoli dei giornali. Tuttavia, il nostro posto speciale in questo spartiacque storico, tra una realtà completamente analogica e una sempre più digitale, porta con sé anche straordinarie opportunità. Proprio perché la rivoluzione digitale è appena iniziata, abbiamo la possibilità di plasmarla in modi positivi che possono fare progredire sia l'umanità sia il nostro pianeta. Come disse una volta Winston Churchill, "prima siamo noi a dare forma agli edifici; poi sono questi a dare forma a noi". Siamo nella primissima fase di costruzione delle nostre realtà digitali. Possiamo costruirle bene, prima che inizino a influenzare e modellare noi e le generazioni future nel modo sbagliato. La discussione sul bicchiere mezzo vuoto o mezzo pieno è inutile perché la questione davvero interessante è come possiamo riempirlo.

Per individuare la strada migliore da percorrere nello sviluppo delle nostre tecnologie digitali, il primo, fondamentale passo è cercare di averne una maggiore e migliore comprensione. Non dovremmo sonnecchiare nella creazione di un mondo sempre più digitale. L'insonnia della ragione è vitale, perché il suo sonno genera errori mostruosi. Comprendere le trasformazioni tecnologiche in atto sotto i nostri occhi è cruciale, se vogliamo guidare la rivoluzione digitale in una direzione che sia preferibile (equa) dal punto di vista sociale e sostenibile da quello ambientale. Ciò può tradursi solo in uno sforzo collaborativo. Pertanto, in questo libro, offro il mio contributo condividendo alcune idee su un particolare tipo di tecnologia digitale, l'intelligenza artificiale (IA), e un problema specifico, la sua etica.

[...]

Possiamo, ora, dare un rapido sguardo ai suoi contenuti. Il compito di questo volume è quello di contribuire allo sviluppo di una filosofia del nostro tempo per il nostro tempo, come ho scritto più volte. Tale sforzo è attuato in modo sistematico (l'architettura concettuale è una caratteristica preziosa del pensiero filosofico) piuttosto che in modo esauriente, perseguendo due obiettivi.

Il primo obiettivo è metateorico ed è soddisfatto dalla prima parte. Questa comprende i primi tre capitoli, in cui offro un'interpretazione del passato (capitolo 1), del presente (capitolo 2) e del futuro dell'IA (capitolo 3). Questa prima parte non è un'introduzione all'IA in senso tecnico, o una sorta di IA per principianti. Ci sono tanti ottimi libri a questo scopo. È piuttosto un'interpretazione filosofica dell'IA come tecnologia. La tesi principale che sviluppo nel libro consiste nel dire che l'IA costituisce un divorzio senza precedenti tra l'intelligenza e la capacità di agire.

Sulla base di questa prima parte, la seconda svolge una disamina non metateorica ma teorica delle conseguenze di tale divorzio analizzate nella prima parte.

Nel capitolo 4, offro una prospettiva unificata sui molti principi che sono stati proposti per inquadrare l'etica dell'IA. Ciò porta a esaminare, nel capitolo 5, i potenziali rischi che possono pregiudicare l'applicazione di tali principi e quindi, nel capitolo 6, a un'analisi della relazione tra principi etici e norme giuridiche e alla definizione di etica soft come etica post-compliance. Dopo questi tre capitoli, analizzo le sfide etiche poste dallo sviluppo e dall'uso dell'IA nel capitolo 7, gli usi cattivi dell'IA nel capitolo 8 e le buone pratiche nell'applicazione dell'IA nel capitolo 9. L'ultimo gruppo di capitoli è dedicato a una serie di questioni rilevanti dal punto di vista del dibattito etico sull'IA e, in particolare, del design, sviluppo e implementazione dell'IA per il bene sociale. Pertanto, nel capitolo 10, getto luce su una questione attuale ma fuorviante, quella della singolarità. Nel capitolo 11, esamino più da vicino la natura e le caratteristiche dell'IA per il bene sociale. Nel capitolo 12, ricostruisco l'impatto positivo e negativo che l'IA ha sull'ambiente e in che modo l'IA può essere una forza positiva nella lotta ai cambiamenti climatici, ma non senza rischi e costi, che devono essere evitati o minimizzati. Nel capitolo 13, approfondisco l'analisi presentata nel capitolo 9 e discuto la possibilità di avvalersi dell'IA a sostegno dei 17 obiettivi di sviluppo sostenibile delle Nazioni Unite. In questo contesto, presento l'iniziativa di ricerca dell'Università di Oxford sull'IA per gli obiettivi di sviluppo sostenibile che ho diretto a Oxford. Infine, nel capitolo 14, concludo sostenendo l'esigenza di un nuovo matrimonio tra il verde di tutti i nostri habitat e il blu di tutte le nostre tecnologie digitali, per sostenere e sviluppare una società migliore e una biosfera più sana. Il libro si chiude con alcuni richiami a concetti che saranno centrali nel prossimo libro, La politica dell'informazione, dedicato, come accennato sopra, all'impatto delle tecnologie digitali sull'agire sociopolitico.

[...]

La differenza principale rispetto ai libri passati è che ora sono sempre più convinto che la filosofia sia nella sua forma migliore design concettuale, e il design concettuale offre progetti mirati - comprendere il mondo per migliorarlo - e semantizzazione - dare senso e significato all'Essere, e prendersi cura del capitale semantico dell'umanità. Tutto è iniziato rendendosi conto di qualcosa di ovvio, in un caso specifico riguardante un celeberrimo filosofo di Oxford: la vera eredità di Locke è il suo pensiero politico, non la sua epistemologia. Forse Kant non voleva indurci a credere che l'epistemologia e l'ontologia fossero le regine del regno filosofico, ma è così che sono stato educato a pensare la filosofia moderna. E forse né Wittgenstein Heidegger pensavano che la logica, il linguaggio e la sua filosofia dovessero sostituire le due regine come loro unici eredi legittimi, ma è così che sono stato anche educato a pensare la filosofia contemporanea. A ogni modo, oggi non metto più al centro dell'impresa filosofica queste discipline, ma piuttosto l'etica, la filosofia politica e del diritto. Ricerca, comprensione, formazione, realizzazione e negoziazione di ciò che è moralmente buono e giusto sono il nucleo della riflessione filosofica. Tutto il resto è il viaggio necessario per raggiungere un luogo simile, ma non va confuso con esso.

[...]

Mi sono reso conto anche di quanto spesso si commettano errori facendo affidamento su "attrattori sistemici": se una nuova idea assomiglia un po' a una vecchia idea che già possediamo, allora quella vecchia idea diventa una calamita da cui la nuova è fortemente attratta, in modo pressoché irresistibile. Finiamo per pensare che "il nuovo" sia proprio come "il vecchio", e se non ci piace "quel vecchio" allora non ci piace neanche "quel nuovo". Cattiva filosofia indubbiamente, ma ci vogliono esercizio e forza mentale per resistere a un cambiamento così forte. Nel caso di questo libro, temo che alcuni lettori possano essere tentati dall'idea che si tratti di un libro contro la tecnologia o di un libro in cui indico i limiti dell'IA, ciò che "l'IA non può fare", o addirittura dall'idea opposta, per cui questo libro sarebbe troppo ottimista riguardo alla tecnologia, troppo innamorato della rivoluzione digitale e dell'intelligenza artificiale come se fosse una sorta di panacea. Hanno torto entrambi. Il libro è un tentativo di stare nel mezzo, né l'inferno né il paradiso, ma il laborioso purgatorio degli sforzi umani. Naturalmente, sarei deluso nel sentirmi dire che il mio tentativo è fallito, ma sarei frustrato se il tentativo dovesse essere frainteso. Ci sono molti modi di comprendere la tecnologia: uno di questi consiste nel concepirla in termini di buon design e governance etica. In realtà credo che sia l'approccio migliore. Il lettore non deve concordare con me su tutto. Ma non vorrei essere frainteso sulla direzione che sto prendendo.

Ho pensato che due caratteristiche possono aiutare il lettore ad accedere più facilmente ai contenuti di questo libro: i sommari e le conclusioni all'inizio e alla fine di ciascun capitolo, e qualche ridondanza. Per quanto riguarda la prima caratteristica, so che è poco ortodossa, ma la soluzione, già adottata in altri volumi, di iniziare ogni capitolo con un "In precedenza nel capitolo x..." dovrebbe consentire al lettore di navigare nel testo o passare a capitoli successivi senza perderne la trama essenziale.

| << |  <  |  >  | >> |

Pagina 39

2
PRESENTE: IA COME NUOVA FORMA DELL'AGIRE
E NON DELL'INTELLIGENZA



Sommario In precedenza, nel primo capitolo, abbiamo visto come la rivoluzione digitale abbia tagliato e incollato la nostra realtà e le nostre idee sulla realtà, re-ontologizzando e ri-epistemologizzando la modernità. Ciò ha portato allo sviluppo dell'IA come nuova forma dell'agire, che può avere successo senza essere intelligente. Nel presente capitolo analizzo questa interpretazione. Nel primo paragrafo, mostro come l'assenza di una definizione di IA sia la prova che l'espressione non è un termine scientifico ma un'utile scorciatoia per fare riferimento a una famiglia di scienze, metodi, paradigmi, tecnologie, prodotti e servizi. Nel secondo paragrafo, faccio riferimento alla classica descrizione controfattuale dell'IA fornita da McCarthy, Minsky , Rochester e Shannon nella loro "Proposta per il progetto estivo di ricerca sull'intelligenza artificiale di Dartmouth". L'abbiamo già incontrata nel capitolo precedente, ed è la descrizione che adotterò nel resto del libro. Esamino anche la celebre domanda di Turing: "Le macchine possono pensare?". Nel terzo paragrafo, sulla base della precedente analisi delineo l'approccio ingegneristico e cognitivo all'IA, sostenendo che il primo si è tradotto in un grande successo mentre il secondo in un totale fallimento. L'interpretazione dell'IA come nuova forma dell'agire che non deve essere intelligente per avere successo si basa sulla tradizione ingegneristica: nel paragrafo seguente, il quarto, suggerisco che tale forma dell'agire può avere successo perché abbiamo trasformato il mondo (avvolgendolo) in un ambiente sempre più adattato al funzionamento dell'IA. In conclusione, sottolineo come tale processo generi il rischio di spingere l'umanità a adattarsi alle sue tecnologie intelligenti.

| << |  <  |  >  | >> |

Pagina 56

Negli anni Quaranta e Cinquanta, il computer era una stanza e vi camminavamo dentro per lavorare con esso e al suo interno. Programmare significava usare un cacciavite. L'interazione uomo-computer era una relazione somatica o fisica. Ricordiamoci del computer mostrato in Robinson Crusoe su Marte. Negli anni Settanta, siamo usciti dal computer, per sederci di fronte a esso. L'interazione uomo-computer divenne una relazione semantica, resa in seguito più facile dal sistema operativo per dischi, dalle righe di testo, dall'interfaccia utente grafica e dalle icone. Oggi, siamo entrati di nuovo nel computer, sotto forma di un'intera infosfera che ci circonda, spesso in modo impercettibile. Stiamo costruendo l'involucro definitivo in cui le interazioni uomo-computer sono diventate di nuovo somatiche, attraverso i touch screen, i comandi vocali, i dispositivi di ascolto, le applicazioni sensibili ai gesti, i dati di geolocalizzazione e così via. Come al solito, intrattenimento, sanità e applicazioni militari stanno guidando l'innovazione, ma il resto del mondo non è molto indietro. Se droni, veicoli a guida autonoma, tagliaerba robotica, ma anche bot e algoritmi di ogni tipo possono spostarsi "in giro" e interagire con i nostri ambienti con problemi decrescenti, non è perché è stata finalmente realizzata l'IA produttiva e cognitiva (di tipo hollywoodiano), ma perché ciò che sta "intorno" e gli ambienti con cui i nostri artefatti ingegnerizzati devono negoziare sono diventati sempre più adattati all'IA riproduttiva e ingegnerizzata e alle sue limitate capacità. In una tale infosfera adattata all'IA, l'assunto di base è che un agente può essere artificiale: questo è il motivo per cui ci viene chiesto regolarmente di dimostrare che non siamo robot, cliccando sul cosiddetto CAPTCHA, il test di Turing pubblico e completamente automatico, per distinguere computer e umani. Il test è rappresentato da stringhe di lettere leggermente alterate, eventualmente mescolate con altri segni grafici, che dobbiamo decifrare per dimostrare che siamo un umano e non un agente artificiale, per esempio, quando ci registriamo per un nuovo account online. Si tratta di un test banale per un essere umano ma realmente insormontabile per l'IA: ecco quanti pochi progressi ci sono stati nell'area cognitiva di produzione dell'intelligenza non biologica.

| << |  <  |  >  | >> |

Pagina 65

3
FUTURO: LO SVILUPPO PREVEDIBILE DELL'IA



Sommario In precedenza, nel secondo capitolo, ho sostenuto che l'IA non dovrebbe essere interpretata come un matrimonio tra un'intelligenza di tipo biologico e artefatti ingegnerizzati, ma come un divorzio tra l'agire e l'intelligenza, cioè una scissione tra la capacità di affrontare problemi e compiti con successo in vista di uno scopo e l'esigenza di essere intelligenti nel farlo. Nel presente capitolo, utilizzo questa interpretazione dell'IA come una nuova forma di agire efficace ma non-intelligente per scrutare il suo futuro. Dopo una breve introduzione nel primo paragrafo, relativa alle difficoltà che investono qualsiasi esercizio di previsione, nei paragrafi secondo e terzo sostengo che i probabili sviluppi e le possibili sfide dell'IA dipenderanno dalla spinta verso i dati sintetici, dalla crescente traduzione di problemi difficili in problemi complessi, dalla tensione tra regole regolative e costitutive alla base delle aree di applicazione dell'IA, e quindi dal progressivo adattamento dell'ambiente all'IA piuttosto che dell'IA all'ambiente (ciò che ho definito nel capitolo precedente come avvolgimento). Nel quarto paragrafo, ritorno sull'importanza del design e della responsabilità nel produrre il corretto tipo di IA per trarre vantaggio dagli sviluppi di cui sopra. Nella conclusione, discuto le stagioni dell'IA, e in particolare i suoi inverni, per sottolineare le lezioni che avremmo dovuto apprendere, e possiamo ancora assimilare e applicare, per sfruttare al meglio questa straordinaria tecnologia. Il capitolo conclude la prima parte del libro, con una breve introduzione filosofica a passato, presente e futuro dell'IA.

| << |  <  |  >  | >> |

Pagina 262

La realtà è più banale e, in un certo senso, solleva preoccupazioni più realistiche. Le attuali e prevedibili tecnologie smart hanno l'intelligenza di un abaco, ossia zero. E coloro che discutono in termini di crescita lenta ma costante dell'attuale livello d'intelligenza delle tecnologie smart - per cui faremmo bene a preoccuparci ora perché la vera IA arriverà prima o poi - dovrebbero ricordare che non importa quanti zeri aggiungiamo, ciò ci manterrà sempre al punto di partenza. Il problema è sempre la stupidità umana o la natura malvagia. Pochi mesi dopo il Premio Luddista di cui sopra, il 23 marzo 2016, Microsoft ha introdotto Tay su Twitter. Abbiamo già incontrato Tay nell'ottavo capitolo, ma ecco un breve pro-memoria: Tay era un chatbot basato sull'IA. Ha dovuto essere rimosso solo sedici ore dopo. Tay sarebbe dovuto diventare sempre più intelligente mentre interagiva con gli umani. Invece, è diventato rapidamente un malvagio sostenitore di Hitler, negazionista dell'Olocausto, promotore dell'incesto e assertore del fatto che "Bush ha realizzato l'11 settembre". Come mai? Perché funzionava come la carta assorbente da cucina, impregnandosi e assumendo la forma dei messaggi ingannevoli e sgradevoli che gli venivano inviati. Microsoft si è scusata (Hunt, 2016). Questo è lo stato dell'IA oggi e nel futuro realisticamente prevedibile: vedi, per esempio, il premio Loebner e il test di Turing già menzionati. Ma non è un buon motivo per stare sereni. Al contrario, dopo tante speculazioni fuorvianti sui rischi inverosimili delle macchine ultraintelligenti, è giunto il momento di accendere la luce, smettere di preoccuparsi di scenari fantascientifici che distraggono e iniziare a concentrarsi sulle reali sfide dell'IA, per evitare di fare errori dolorosi e costosi nel design e nell'uso delle tecnologie smart. È quanto ho cercato di fare nei capitoli precedenti. In questo, esaminerò quelle che considero le ragioni principali per cui tali preoccupazioni, ma anche le opinioni opposte, eccessivamente ottimistiche, sono sbagliate.




10.2 CREDENTI E MISCREDENTI NELLA VERA IA:
UN DIBATTITO SULLA FEDE



La filosofia non coglie bene le sfumature (questa è la confessione di un peccatore). Può apprezzare la precisione e le distinzioni affinate, ma ciò che ama davvero sono le polarizzazioni e le dicotomie. Internalismo o esternalismo, fondazionalismo o coerentismo, trolley a sinistra o a destra, zombie o non zombie, mondi relativi all'osservatore o indipendenti dall'osservatore, possibili o impossibili, fondati o non fondati, [...] la filosofia può predicare il vel inclusivo ("ragazze o ragazzi possono giocare") ma fin troppo spesso indulge nell' aut aut esclusivo (" o ti piace o non ti piace"). L'attuale dibattito sull'IA ne è un esempio calzante. Qui la dicotomia riguarda i credenti e i miscredenti nella vera IA, conosciuta anche come IAG (intelligenza artificiale generale), IA forte, piena o universale. Sì, la cosa vera e propria, non Siri nel nostro iPhone, Roomba (un robot aspirapolvere) nel nostro soggiorno o Nest (un termostato intelligente) nella nostra cucina (ammissione: sono felice proprietario di tutti e tre questi dispositivi). Pensiamo, invece, alla falsa Maria in Metropolis (1927), Hal 9000 in 2001: Odissea nello spazio (1968; Good era uno dei consulenti), C-3PO in Star Wars (1977), Rachael in Blade Runner (1982), Data in Star Trek: The Next Generation (1987), l'agente Smith in The Matrix (1999), la Samantha priva di corpo in Lei (2013) o Ava in Ex Machina (2014). L'elenco potrebbe continuare, ma il quadro è chiaro. I credenti nella vera IA e nell'"esplosione di intelligenza" di Good appartengono alla Chiesa dei fautori della singolarità. In mancanza di un termine migliore, mi riferirò ai miscredenti come membri della Chiesa degli atei dell'IA. Nel resto di questo capitolo, desidero esaminare le due fedi e capire perché entrambe siano errate, per sgombrare il campo da concezioni potenzialmente fuorvianti. Nel frattempo, ricordiamoci che la buona filosofia sta quasi sempre nel noioso mezzo.




10.3 GLI ADEPTI DELLA SINGOLARITÀ:
LA FINE È VICINA, LA VERA IA STA ARRIVANDO



Gli adepti della singolarità credono in tre dogmi. Primo, la creazione di una qualche forma di ultraintelligenza artificiale è probabile o almeno non impossibile nel (per alcuni di loro prevedibile) futuro. Questa svolta è nota come singolarità tecnologica, da cui il nome. Sia la natura di tale superintelligenza sia l'esatto lasso di tempo del suo arrivo non sono specificati, sebbene gli adepti della singolarità tendano a preferire futuri che sono convenientemente abbastanza vicini da preoccuparsene ma sufficientemente lontani da non essere più là per verificarne la correttezza o no (dirò di più su queste fantasiose scansioni temporali a breve). In secondo luogo, l'umanità corre il grosso rischio di essere dominata da tale ultraintelligenza. In terzo luogo, la generazione attuale ha la responsabilità primaria di assicurare che la singolarità non abbia luogo o, se accade, che sia benigna e vada a vantaggio dell'umanità. Ciò ha tutte le caratteristiche di una visione manichea del mondo: il Bene che combatte il Male, toni apocalittici, l'urgenza del "dobbiamo fare qualcosa ora o sarà troppo tardi", una prospettiva escatologica della salvezza umana, e un appello alle paure e all'ignoranza. Se proiettiamo tutto questo in un contesto in cui le persone sono giustamente preoccupate per l'impatto delle tecnologie digitali sulle loro vite, specialmente per ciò che concerne il mercato del lavoro, la politica, i crimini e i conflitti informatici, e in cui i mass media ogni giorno danno notizia di nuovi aggeggi e disastri informatici senza precedenti, avremo la ricetta perfetta per un dibattito che provoca distrazione di massa, un oppiaceo digitale per le masse.

Come tutte le opinioni basate sulla fede, il credo della singolarità è inconfutabile perché alla fine non è limitato dalla ragione e dall'evidenza. È anche poco plausibile, dal momento che non c'è motivo di credere che qualcosa che assomigli a macchine intelligenti (per non parlare di ultraintelligenti) emergerà dalla nostra attuale e prevedibile comprensione dell'informatica e delle tecnologie digitali. Lasciatemi spiegare.

Il credo della singolarità è, talvolta, presentato in termini condizionali. Ciò è scaltro, perché l' allora segue il se, e non solo nel senso per cui ex falso quod libet: se un qualche tipo di ultraintelligenza dovesse manifestarsi, allora ci troveremmo in guai grossi, e non semplicemente "potremmo" trovarci, come detto in precedenza da Hawking. Corretto. Assolutamente. Ma questo vale anche per il seguente condizionale: se dovessero apparire i Quattro Cavalieri dell'Apocalisse, allora ci troveremmo in guai ancora più grossi.

Altre volte, il credo della singolarità si basa su un senso molto debole di possibilità: una qualche forma di ultraintelligenza artificiale potrebbe svilupparsi, no? Sì, potrebbe. Ma tale "potrebbe" è una mera possibilità logica, cioè, per quanto ne sappiamo, non c'è contraddizione nell'ipotizzare lo sviluppo dell'ultraintelligenza artificiale. Eppure questo è un trucco, che offusca l'enorme differenza tra "potrei ammalarmi domani" quando già non mi sento troppo bene, e "potrei essere una farfalla che sogna di essere un essere umano". Non c'è contraddizione nell'ipotizzare che un tuo parente, di cui non hai mai sentito parlare, sia morto lasciandoti dieci milioni di dollari. Ciò potrebbe accadere. Dunque? Le contraddizioni, come gli scapoli felicemente sposati, non sono stati di cose possibili, ma le non-contraddizioni (semplici "potrebbero"), come agenti extraterrestri che vivono in mezzo a noi così ben nascosti che non li abbiamo mai scoperti, possono essere liquidate come qualcosa di assolutamente privo di senso. Russell utilizzava una meravigliosa analogia per chiarire il punto:

Se dovessi suggerire che tra la Terra e Marte c'è una teiera di porcellana che ruota intorno al sole in un'orbita ellittica, nessuno sarebbe in grado di smentire la mia affermazione purché fossi attento ad aggiungere che la teiera è troppo piccola per essere rilevata anche dai nostri telescopi più potenti. Ma se aggiungessi che, poiché la mia affermazione non può essere confutata, dubitarne costituisce un'intollerabile presunzione da parte della ragione umana, giustamente crederei di stare dicendo delle sciocchezze [...]. (Russell,1952)

La singolarità è solo un caso di credenza nella teiera, perché il "potrebbe" in "l'ultraintelligenza artificiale potrebbe svilupparsi" non è come il "potrebbe" in "potrebbe verificarsi un terremoto", ma come il potrebbe in "non è vero che non potrebbe accadere" che tu sia il primo essere umano immortale. Giusto, ma non è un buon motivo per iniziare a comportarsi come se dovessi vivere per sempre.

A meno che, naturalmente, qualcuno non fornisca prove contrarie, cioè mostri che ci sia qualcosa nella nostra attuale e prevedibile comprensione dell'informatica che dovrebbe portarci a sospettare che l'emergere dell'ultraintelligenza artificiale sia anche solo lontanamente plausibile. È qui che gli adepti della singolarità mescolano fede e fatti, spesso spinti, mi piace credere, da un sincero senso di urgenza apocalittica. Cominciano con il parlare di posti di lavoro persi, sistemi digitali a rischio, droni senza pilota fuori controllo e altri problemi reali e preoccupanti relativi alle tecnologie computazionali che sono prossime a dominare la vita umana, dall'istruzione all'occupazione, dall'intrattenimento ai conflitti. Da tali evidenze, saltano poi a essere seriamente preoccupati perché sono incapaci di controllare la loro prossima auto poiché avrà una mente propria. Come una cattiva IA ultraintelligente potrà mai evolvere autonomamente dalle abilità computazionali necessarie per parcheggiare in un luogo angusto resta poco chiaro. La verità è che arrampicarsi sulla cima di un albero non è un piccolo passo verso la Luna; è la fine del viaggio. Quello a cui siamo destinati ad assistere sono macchine sempre più smart in grado di svolgere un numero crescente di attività, alcune delle quali siamo noi stessi attualmente a svolgere, mentre altre supereranno le nostre capacità. Per la prima volta nella storia umana, l'agire ha divorziato in modo irreversibile e con successo dall'intelligenza, e questo è di per sé alquanto straordinario, senza dover credere alla fantascienza.

Se tutti gli altri argomenti falliscono, gli adepti della singolarità amano aggiungere un po' di matematica. Uno dei riferimenti preferiti è la legge di Moore, che è molto nota, ma permettetemi di enunciarla nuovamente per motivi di chiarezza. Si tratta di un'affermazione empirica per cui, nello sviluppo dei computer digitali, il numero di transistor sui circuiti integrati raddoppia circa ogni due anni. Il risultato è stato finora una maggiore potenza di calcolo a un prezzo inferiore. Ma le cose stanno cambiando. Le difficoltà tecniche nella nanotecnologia presentano serie sfide di produzione. Dopotutto, c'è un limite a quanto le cose possono diventare piccole prima di dissolversi. La legge di Moore non vale più (Waldrop, 2016; The Economist, 2016). Altri tipi di soluzioni tecnologiche dovranno essere identificate, tra cui il computer quantistico. Solo perché qualcosa cresce esponenzialmente per un certo tempo, non significa che continuerà a farlo per sempre. Ecco un buon esempio di che cosa succede se non si presta attenzione alle "proiezioni":

Nel corso della storia di cui si ha conoscenza, gli umani hanno regnato incontrastati come specie dominante sulla Terra. Ciò potrebbe cambiare presto? I tacchini, creature finora innocue, sono esplose in dimensioni, gonfiandosi da una media di 13,2 libbre (6 chili) nel 1929 a oltre 30 libbre oggi. Partendo dal solido presupposto scientifico che le tendenze attuali persisteranno, The Economist calcola che i tacchini saranno grandi quanto gli umani in soli 150 anni. Entro 6000 anni, i tacchini sovrasteranno l'intero pianeta. Gli scienziati affermano che la rapida crescita dei tacchini è il risultato di innovazioni nell'allevamento del pollame, come l'allevamento selettivo e l'inseminazione artificiale. La natura artificiale della loro crescita e il fatto che la maggior parte abbia perso la capacità di volare suggeriscono che non tutto è perduto. Tuttavia, con quasi 250 milioni di tacchini che continuano a ingozzarsi e a sfilare solo in America, c'è motivo di preoccupazione. Nel giorno del Ringraziamento, c'è una sola linea prudente d'azione prudente: mangiarli prima che ci mangino. ( The Economist, 2014b)

| << |  <  |  >  | >> |

Pagina 269

Oggi ritengo che il credo della singolarità non sia né divertente né solo logicamente irritante, ma irresponsabilmente fuorviante. È una preoccupazione tipica del mondo ricco, che probabilmente impensierirà le persone nelle società opulente, che sembrano dimenticare i mali reali che opprimono l'umanità e il nostro pianeta. Purtroppo, la pandemia da Covid-19 ha ricordato ai profeti di sventura che abbiamo problemi tragici che sono seri e urgenti. Il cambiamento climatico - non importa cosa ne possa pensare Musk - è "la nostra più grande minaccia esistenziale". È immorale speculare su scenari hollywoodiani mentre, nel 2019,

miliardi di persone in tutto il mondo continuano a soffrire per lo scarso accesso all'acqua, ai servizi sanitari e all'igiene, secondo un nuovo rapporto dell'UNICEF e dell'Organizzazione mondiale della sanità. Circa 2,2 miliardi di persone in tutto il mondo non dispongono di servizi di acqua potabile gestiti in modo sicuro, 4,2 miliardi di persone non dispongono di servizi sanitari gestiti in modo sicuro e 3 miliardi non dispongono di strutture di base per íl lavaggio delle mani.

Queste sono minacce reali e importanti per l'umanità. E nel caso in cui pensassimo che le previsioni degli esperti siano una guida affidabile, riflettiamoci ancora una volta. Ci sono molte previsioni tecnologiche incredibilmente sbagliate da parte di grandi esperti (alcune esilaranti in Pogue, 2012, e Cracked Readers, 2014). Per esempio, nel 2004 Bill Gates ha dichiarato: "Tra due anni lo spam sarà risolto". E nel 2011 Stephen Hawking ha dichiarato che "la filosofia è morta" (Warman, 2011), per cui non state leggendo questo libro. Ma la previsione a cui sono piuttosto affezionato è quella di Robert Metcalfe, coinventore di Ethernet e fondatore di 3Com. Nel 1995 ha giurato che si sarebbe rimangiato le proprie parole se la sua previsione che Internet sarebbe diventata presto una super-nova e collassata catastroficamente nel 1996 si fosse rivelata sbagliata. Nel 1997, ha liquefatto pubblicamente il suo articolo in un robot da cucina e lo ha doverosamente bevuto. Un uomo di parola. Mi piacerebbe che gli adepti della singolarità fossero audaci e coerenti come lui.




10.4 IA-TEISMO DELL'IA: QUELLO CHE I COMPUTER
NON POSSONO FARE, PRESUMIBILMENTE



Ho speso più di qualche parola per descrivere il credo della singolarità, non perché possa essere preso sul serio, ma perché i miscredenti dell'IA, gli atei, possono essere meglio compresi come persone che reagiscono in modo eccessivo a tutte queste sciocchezze della singolarità. Profondamente irritati da coloro che adorano gli dei digitali sbagliati e dalle loro profezie irrealizzate sulla singolarità, i miscredenti (gli atei dell'IA) intraprendono la missione di dimostrare una volta per tutte che qualsiasi tipo di fede nella vera IA è sbagliata, del tutto sbagliata. L'IA è solo computer, i computer sono solo macchine di Turing, le macchine di Turing sono solo motori sintattici e i motori sintattici non possono pensare, non possono sapere, non possono essere coscienti. Fine della storia.

| << |  <  |  >  | >> |

Pagina 274

[...] Come ho sostenuto nei capitoli precedenti, ciò che conta davvero è che la presenza crescente di tecnologie sempre più smart nelle nostre vite sta avendo un enorme impatto sul modo in cui concepiamo noi stessi, il mondo e le interazioni che intratteniamo tra noi e con il mondo. Il punto non è che le nostre macchine siano coscienti, intelligenti o capaci di conoscere qualcosa come noi. Non lo sono. Un sacco di macchine possono fare cose incredibili, come giocare a dama, scacchi e Go o al quiz show Jeopardy! meglio di noi. Eppure, sono tutte versioni di una macchina di Turing, un modello astratto che fissa i limiti di ciò che può essere realizzato da un computer tramite la sua logica matematica. Anche i computer quantistici sono vincolati dagli stessi limiti, i limiti di ciò che può essere calcolato (le cosiddette funzioni computabili). Nessuno sembra capace di spiegare come un ente cosciente, intelligente ed empatico possa emergere da una macchina di Turing. Il punto è che le nostre tecnologie smart, anche grazie all'enorme quantità di dati disponibili e a programmi molto sofisticati, sono sempre più capaci di svolgere un numero crescente di compiti meglio di noi, compresa la previsione dei nostri stessi comportamenti, senza dover essere affatto intelligenti. Per questo, non siamo gli unici agenti in grado di svolgere compiti con successo, tutt'altro. È quello che ho definito Quarta rivoluzione nella comprensione di noi stessi (Floridi, 2014a). Non siamo al centro dell'universo (Copernico), del regno biologico (Darwin) o del regno della razionalità (Freud). Dopo Turing, non siamo più al centro dell'infosfera né del mondo dell'elaborazione delle informazioni e dell'agire smart. Ironia della sorte, la BBC ha realizzato un breve video di due minuti, per introdurre quest'idea di una quarta rivoluzione, che vale la pena di guardare, ma ha commesso un errore alla fine, equiparando l'essere "migliore nel portare a termine i compiti" con l'essere "il più bravo a pensare". Non ho mai sostenuto che le tecnologie digitali pensino meglio di noi, ma che possano fare sempre più cose meglio di come le facciamo noi senza pensare, limitandosi a elaborare quantità crescenti di dati in modo sempre più efficiente ed efficace. E se quest'ultima è la definizione di pensare usata per primeggiare nella discussione, allora stiamo avendo un dibattito linguistico.

| << |  <  |  >  | >> |

Pagina 276

10.6 CONCLUSIONE: IL PROBLEMA NON È HAL,
MA L'UMANITÀ NEL SUO COMPLESSO



Noi siamo e rimarremo, in qualsiasi prevedibile futuro, il problema, non la nostra tecnologia. Questo è il motivo per cui dovremmo accendere la luce nella stanza buia e guardare attentamente dove stiamo andando. Non ci sono mostri ma molti ostacoli da evitare, rimuovere o negoziare. Dovremmo preoccuparci della vera stupidità umana, non dell'intelligenza artificiale immaginaria, e concentrarci sulle sfide reali che l'IA solleva. Per concludere, elenco cinque di queste sfide, tutte parimenti importanti. Sono un modo per richiamare i temi trattati nei capitoli precedenti.

Innanzitutto, dovremmo rendere l'IA adatta all'ambiente. Abbiamo bisogno delle tecnologie più smart che possiamo costruire per affrontare i mali molto concreti che opprimono l'umanità e il nostro pianeta, dai disastri ambientali e sanitari alle crisi finanziarie, dalla criminalità al terrorismo e alla guerra, alla carestia, alla povertà, all'ignoranza, alla disuguaglianza e agli standard di vita terribili. In secondo luogo, dovremmo rendere l'IA adatta all'uomo. L'IA dovrebbe essere usata per trattare le persone sempre come fini, mai come semplici mezzi, per parafrasare Kant. Terzo, dovremmo mettere la stupidità dell'IA al servizio dell'intelligenza umana. Abbiamo visto che milioni di posti di lavoro verranno trasformati, eliminati e creati; i benefici di tale trasformazione dovrebbero essere condivisi da tutti mentre i costi dovrebbero essere sostenuti dalla società. Quarto, dovremmo mettere il potere predittivo dell'IA al servizio della libertà e dell'autonomia. La commercializzazione di prodotti, l'influenza sui comportamenti, le spinte gentili date alle persone o la lotta alla criminalità e al terrorismo non dovrebbero mai minare la dignità umana. E, infine, dovremmo fare in modo che l'IA ci renda più umani. Il rischio grave è che possiamo usare male, troppo o troppo poco le nostre tecnologie smart, a danno della maggior parte dell'umanità e dell'intero pianeta.

Gli adepti della singolarità e gli atei dell'IA proseguiranno per ora le loro diatribe sulla possibilità o l'impossibilità di una vera IA. Dobbiamo essere tolleranti. Ma non dobbiamo impegnarci in esse. Come suggerisce Virgilio a Dante nel terzo canto dell'Inferno: "Non ragioniate di lor, ma guarda e passa". Perché il mondo ha bisogno di una buona filosofia e noi dobbiamo occuparci di problemi più urgenti. Permettetemi di ricordare la citazione di Winston Churchill adoperata nella prefazione: "Prima siamo noi a dare forma agli edifici; poi sono questi a dare forma a noi". Ciò vale anche per l'infosfera e le tecnologie smart che la abitano. Faremmo meglio a comprenderle bene al più presto. Il prossimo capitolo discute alcuni suggerimenti su come possiamo procedere.

| << |  <  |  >  | >> |

Pagina 331

14
CONCLUSIONE:
IL VERDE E IL BLU



Sommario Nei capitoli precedenti, ho esaminato l'IA, il suo impatto positivo e negativo, e le questioni etiche che ne discendono. In quest'ultimo capitolo, traggo alcune conclusioni generali e getto uno sguardo su ciò che potrebbe accadere: un passaggio dall'etica dell'agire artificiale alla politica delle azioni sociali.


14.1 INTRODUZIONE: DAL DIVORZIO TRA AGIRE E INTELLIGENZA
AL MATRIMONIO TRA IL VERDE E IL BLU



A volte dimentichiamo che la vita senza il contributo di una buona politica, di una scienza affidabile e di una robusta tecnologia diventa presto "solitaria, povera, sgradevole, brutale e breve", per prendere in prestito le parole del Leviatano di Thomas Hobbes. La crisi del Covid-19 ci ha tragicamente ricordato che la natura può essere spietata. Solo l'ingegno umano e la buona volontà possono migliorare e salvaguardare il tenore di vita di miliardi di persone. Oggi, gran parte di tale ingegnosità è impegnata nel realizzare una rivoluzione epocale: la trasformazione di un mondo esclusivamente analogico in un mondo sempre più digitale. Gli effetti sono già diffusi: questa è la prima pandemia in cui un nuovo habitat, l' infosfera, ha contribuito a superare i pericoli della biosfera. Viviamo onlife (sia online sia offline) ormai da tempo, ma la pandemia ha trasformato l'esperienza onlife in una realtà che costituisce un punto di non ritorno per l'intero pianeta.

Nei capitoli precedenti ho sostenuto che lo sviluppo dell'IA è un fattore importante in questa rivoluzione epocale. L'IA dovrebbe essere concepita come l'ingegnerizzazione di artefatti in grado di fare cose che richiederebbero intelligenza se dovessimo farle noi. Con un classico esempio che ho usato più volte, un telefono cellulare può battere quasi chiunque a scacchi, pur essendo intelligente come un tostapane. In altre parole, l'IA segna il divorzio senza precedenti tra la capacità di portare a termine compiti o risolvere problemi con successo in vista di un dato obiettivo e il bisogno di essere intelligenti per farlo. Questo riuscito divorzio è diventato possibile solo negli ultimi anni, grazie a gigantesche quantità di dati, strumenti statistici molto sofisticati, enorme potenza di calcolo e alla trasformazione dei nostri contesti di vita in luoghi sempre più adatti all'IA (avvolti intorno all'IA). Quanto più viviamo nell'infosfera e onlife, tanto più condividiamo le nostre realtà quotidiane con forme di agire ingegnerizzate, e tanto più l'IA può affrontare un numero crescente di problemi e compiti. Il limite dell'IA non è il cielo, ma l'ingegno umano.

In questa prospettiva storica ed ecologica, l'IA è una straordinaria tecnologia che può essere una potente forza positiva, in due modi principali. Può aiutarci a conoscere, comprendere e prevedere di più e meglio le numerose sfide che stanno diventando così impellenti, in particolare il cambiamento climatico, l'ingiustizia sociale e la povertà globale. La corretta gestione di dati e processi da parte dell'IA può accelerare il circolo virtuoso tra maggiori informazioni, migliore scienza e politiche più avvedute. Eppure, la conoscenza è potere solo se si traduce in azione. Anche a questo riguardo, l'IA può essere una notevole forza positiva, aiutandoci a migliorare il mondo, e non soltanto la sua interpretazione. La pandemia ci ha ricordato che fronteggiamo problemi complessi, sistemici e globali. Non possiamo risolverli individualmente. Abbiamo bisogno di coordinarci (non dobbiamo intralciarci), collaborare (ognuno fa la sua parte) e cooperare (lavoriamo insieme) di più, meglio e a livello internazionale. L'IA può consentirci di realizzare queste 3C in modo più efficiente (più risultati con meno risorse), in modo efficace (migliori risultati) e in modo innovativo (nuovi risultati).

Tuttavia, c'è un "ma": sappiamo che l'ingegno umano, senza buona volontà, può essere pericoloso. Se l'IA non è controllata e guidata in modo equo e sostenibile, può esacerbare i problemi sociali, dai pregiudizi alla discriminazione; erodere l'autonomia e la responsabilità umana; amplificare í problemi del passato, dall'iniqua allocazione della ricchezza allo sviluppo di una cultura della mera distrazione, quella del "panem et digital circenses". L'IA rischia di trasformarsi da parte della soluzione a parte del problema. Questo è il motivo per cui iniziative etiche come quelle descritte nel quarto capitolo e, in ultima analisi, buone norme internazionali sono essenziali per garantire che l'IA rimanga una potente forza per il bene.

L'IA per il bene sociale è parte integrante di un nuovo matrimonio, tra il verde di tutti i nostri habitat - naturali, sintetici e artificiali, dalla biosfera all'infosfera, da ambienti urbani a contesti economici, sociali e politici - e il blu delle nostre tecnologie digitali - dai cellulari alle piattaforme sociali, dall'Internet delle Cose ai Big Data, dall'IA ai futuri computer quantistici. Il matrimonio tra il verde e il blu, con i suoi vantaggi, controbilancia il divorzio tra l'agire e l'intelligenza, con i suoi rischi. Siamo noi che abbiamo la responsabilità di disegnare e gestire entrambi con successo. La pandemia ha reso palese che la posta in gioco non risiede tanto nell'innovazione digitale, quanto piuttosto nella corretta governance del digitale. Le tecnologie aumentano e migliorano ogni giorno. Tuttavia, per salvare il nostro pianeta e noi stessi, anche da noi stessi, possiamo e dobbiamo utilizzarle molto meglio; basti pensare alla diffusione di disinformazione relativa al Covid-19 sui social media o all'inefficacia delle cosiddette app per il coronavirus. La pandemia è stata la prova generale di quello che dovrebbe essere il progetto umano per il ventunesimo secolo, un matrimonio stabile e fruttuoso tra il verde e il blu. Possiamo farne un successo insieme e facendo affidamento su più e migliore filosofia, non su meno.

| << |  <  |  >  | >> |

Pagina 336

14.3 IL BELLISSIMO ERRORE DI NATURA



Abbiamo visto nel secondo capitolo che Galileo riteneva che la natura fosse come un libro, scritto in simboli matematici, per essere letto dalla scienza. Poteva essere una forzatura metaforica ai suoi tempi, ma oggi il mondo in cui viviamo è certamente sempre più un libro scritto in cifre, per essere letto ed esteso dall'informatica e dalla scienza dei dati. Le tecnologie digitali hanno sempre più successo al suo interno perché, come i pesci nel mare, sono i veri nativi dell'infosfera. Ciò spiega anche perché le applicazioni di IA sono migliori di noi in un numero crescente di compiti: noi siamo semplici organismi analogici che cercano di adattarsi a un habitat così nuovo vivendo onlife. La trasformazione epocale del nostro ambiente in un'infosfera mista, sia analogica sia digitale, e il fatto di condividere l'infosfera con agenti artificiali sempre più smart, autonomi e sociali, ha profonde conseguenze. Alcune di queste non sono ancora distinguibili. Le scopriremo solo con il tempo. Altre sono appena riconoscibili all'orizzonte. Ed altre ancora sono davanti ai nostri occhi. Cominciamo da queste.

Gli agenti di IA, siano essi software (app, webbot, algoritmi, software di ogni genere) o hardware (robot, auto senza conducente, orologi intelligenti e gadget di ogni genere) stanno sostituendo gli agenti umani in ambiti che pensavamo fossero al di fuori della portata di qualsiasi tecnologia fino a pochi anni fa: catalogare immagini, tradurre documenti, interpretare radiografie, pilotare droni, estrarre nuove informazioni da enormi quantità di dati e molte altre cose che solo i colletti bianchi avrebbero dovuto fare. I colletti marroni in agricoltura e quelli blu nell'industria avvertono da decenni la pressione del digitale; i servizi sono ora il nuovo target. Perciò, spariranno anche i posti di lavoro dei colletti bianchi. Possiamo solo tentare di fare una stima ragionevole di quanti ne spariranno e con quale rapidità, ma è probabile che lo sconvolgimento sia profondo. Ovunque gli esseri umani lavorino oggi come interfacce, per esempio tra un GPS e un'automobile, tra due documenti in lingue diverse, tra alcuni ingredienti e un piatto, tra i sintomi e la malattia corrispondente, quel lavoro è a rischio. Al contempo, appariranno nuovi lavori - li ho chiamati colletti verdi - perché saranno necessarie nuove interfacce, tra i servizi forniti dai computer, tra i siti web, tra le applicazioni di IA, tra i risultati dell'IA e così via. Qualcuno dovrà controllare se una traduzione abbastanza buona sia una traduzione sufficientemente affidabile. Molte attività resteranno troppo costose per le applicazioni di IA, pur ammettendo che siano realizzabili con l'IA. Consideriamo il caso di Amazon. Fornisce "l'accesso a più di 500.000 lavoratori provenienti da 190 paesi", i cosiddetti turchi, definiti anche da Amazon come "intelligenza artificiale [sic] artificiale". La ripetizione è indicativa: si tratta di lavori che non richiedono intelligenza pagati pochi centesimi. Non è il tipo di lavoro che potremmo desiderare per i nostri figli, ma è comunque un lavoro di cui molte persone hanno bisogno e che non possono rifiutare. Se non elaboreremo migliori quadri normativi giuridici ed etici, l'IA creerà ulteriori polarizzazioni nella nostra società, specialmente tra i pochi al di sopra delle macchine - i nuovi patrizi - e coloro che stanno al di sotto di esse - la nuova plebe. Con i posti di lavoro, diminuiranno anche le tasse, anche se ciò accadrà un po' più avanti nel futuro. Nessun lavoratore, nessun contribuente, questo è ovvio; e le aziende che sfrutteranno la delegazione di compiti all'IA non saranno generose come i loro ex dipendenti allorché si tratterà di sostenere il benessere sociale. Occorrerà fare qualcosa al riguardo, facendo pagare più tasse alle aziende e ai benestanti. Le norme giocheranno un ruolo importante anche nel determinare quali lavori dovranno essere mantenuti "umani". I treni a guida autonoma sono una rarità anche per ragioni normative, eppure sono molto più facili da gestire rispetto ai taxi o agli autobus senza conducente. Chiaramente le regole contribuiranno in modo significativo al modo in cui disegniamo il futuro della nostra infosfera. Prima di considerare le conseguenze palesi, occorrono due ultime precisazioni. Molti compiti che scompariranno non faranno sparire i lavori corrispondenti: i giardinieri assistiti da uno dei tanti robot tosaerba esistenti avranno semplicemente più tempo per fare altre cose, diverse dal tagliare l'erba. Nessun robot li sostituirà. E molti compiti non scompariranno, verranno semplicemente riaffidati a noi come utenti: premiamo già i pulsanti dell'ascensore (quel lavoro non esiste più), siamo sempre più abituati a scansionare la merce al supermercato (anche il lavoro di cassa sta per sparire) e faremo certamente più lavori in prima persona in futuro.

Che cosa dire delle altre conseguenze appena distinguibili all'orizzonte, quando l'IA non sarà più in mano a tecnici e manager, ma "democratizzata" nelle tasche di miliardi di persone? Al riguardo, posso essere soltanto piuttosto astratto e incerto. L'IA e più in generale gli agenti smart, autonomi e sociali, così come gli strumenti predittivi in grado di anticipare e manipolare le decisioni e le scelte umane offrono un'opportunità storica per ripensare l'eccezionalità umana non come qualcosa di errato quanto piuttosto come qualcosa di mal compreso. I nostri comportamenti intelligenti saranno messi alla prova dai comportamenti smart dell'IA, che possono risultare più efficaci nell'infosfera in termini di adattamento. I nostri comportamenti autonomi saranno messi alla prova dalla prevedibilità e manipolabilità delle nostre scelte razionali e dallo sviluppo dell'autonomia artificiale. E anche la nostra socievolezza sarà messa alla prova dalla sua controparte artificiale, rappresentata da compagni artificiali, ologrammi o semplici voci, servitori 3D o robot sessuali simili a umani, che possono essere attraenti per gli umani e talvolta indistinguibili da loro. Come andrà a finire tutto questo non è chiaro, ma una cosa è certa: lo sviluppo di agenti artificiali non darà luogo ad alcuna allarmante creazione di scenari fantascientifici, che sono irresponsabilmente fuorvianti. Come già detto, non c'è alcun Terminator in vista. L'IA è pressoché un ossimoro: le tecnologie smart saranno tanto stupide quanto le nostre vecchie tecnologie. Ma l'IA ci inviterà a riflettere più seriamente e con minore compiacimento su chi siamo, potremmo essere o vorremmo diventare, e quindi sulle nostre responsabilità e sulla comprensione che abbiamo di noi stessi. L'IA sfiderà profondamente il nostro modo di concepire ciò che intendiamo quando ci percepiamo come "speciali" dopo la quarta rivoluzione (vedi Floridi, 2014a). Non sto sostenendo che il nostro eccezionalismo sia errato. Suggerisco piuttosto che l'IA ci farà rendere conto che il nostro essere eccezionali risiede in un modo speciale e forse irriproducibile di essere disfunzionali con successo. Siamo un hapax legomenon nel Libro della Natura di Galileo, un po' come l'espressione gopher ("legno di cipresso"), che si riferisce al materiale originario con cui è stata costruita l'arca di Noè e che ricorre una sola volta in tutta la Bibbia. Con una metafora più digitale e contemporanea, siamo un bellissimo errore nel grande software dell'universo, non l'app di maggior successo. Resteremo un bug, un errore unico e riuscito, mentre l'IA sarà ancora di più un elemento peculiare nel libro matematico della natura di Galileo. Un così bell'errore sarà sempre più responsabile della natura e della storia. In breve, Shakespeare aveva ragione:

    Gli uomini in certi momenti sono padroni dei loro destini.
    La colpa, caro Bruto, non è nelle nostre stelle.
    Ma in noi stessi, se siamo schiavi.
    (Shakespeare, Giulio Cesare, I, II)


La questione è che non potremo essere padroni dei nostri destini senza ripensare un'altra forma dell'agire, quella politica. Per questo, La politica dell'informazione sarà il tema del mio prossimo libro.

| << |  <  |