Tra i molti dibattiti in corso sulla rapida diffusione della cosiddetta intelligenza artificiale (ia) ce n’è uno relativamente sconosciuto sulla scelta della parola “allucinazioni”. È il termine che i programmatori e i sostenitori dell’ia generativa (quella in grado di generare a richiesta testi, immagini o altro in risposta a una richiesta) usano per descrivere le sue risposte quando sono completamente inventate o semplicemente sbagliate. Per esempio, quando chiediamo a un chatbot (un software che simula la conversazione di un essere umano) la definizione di una cosa che non esiste e il programma, in modo piuttosto convincente, ce ne dà una con tanto di note a piè di pagina false. “Nel nostro campo nessuno è ancora riuscito a risolvere il problema delle allucinazioni”, ha detto di recente Sundar Pichai, l’amministratore delegato di Google e dell’Alphabet, l’azienda che controlla il motore di ricerca californiano.
È vero. Ma perché chiamare gli errori allucinazioni? Perché non spazzatura algoritmica? O anomalie? Avere un’allucinazione si riferisce alla misteriosa capacità del cervello umano di percepire cose che non sono materialmente presenti. Appropriandosi di una parola comunemente usata in psicologia, in psichedelia e in varie forme di misticismo, i sostenitori dell’ia riconoscono la fallibilità delle loro macchine, ma allo stesso tempo alimentano la mitologia più cara all’industria tecnologica, e cioè che costruendo questi grandi modelli linguistici e addestrandoli su tutto ciò che gli umani hanno scritto, detto e rappresentato visivamente, stanno creando un’intelligenza animata che farà compiere un salto evolutivo alla nostra specie. In che modo, altrimenti, bot come Bing e Bard potrebbero farsi questi “viaggi” nell’etere?
Nel mondo dell’ia ci sono effettivamente delle allucinazioni perverse, ma ad averle non sono i chatbot, bensì i manager delle aziende tecnologiche che li hanno lanciati, insieme a un esercito di entusiasti in preda anche loro ad allucinazioni incontrollate, individuali e collettive. Ma non nel senso mistico o psichedelico di uno stato di alterazione mentale che può dare accesso a verità profonde e prima sconosciute. No, questa gente vede, o almeno dice di vedere, cose che non ci sono, arrivando perfino a evocare interi mondi in cui i suoi prodotti saranno al servizio dell’elevazione e dell’educazione universale degli esseri umani.
Il più grande furto della storia
L’intelligenza artificiale generativa metterà fine alla povertà, dicono. Curerà tutte le malattie, risolverà la crisi climatica, renderà il lavoro di tutti più pieno di significato e coinvolgente, permetterà di vivere una vita di piacere e contemplazione, aiutandoci a rimpossessarci dell’umanità che abbiamo sacrificato sull’altare della meccanizzazione capitalistica, metterà fine alla solitudine, renderà i governi più razionali e reattivi. Ho paura che siano queste le vere allucinazioni: abbiamo cominciato ad ascoltarle a ciclo continuo alla fine dell’anno scorso, con il lancio di ChatGpt, il noto software in grado di rispondere alle domande degli utenti generando in pochi secondi testi su qualunque argomento. Può esistere un mondo in cui l’ia generativa, usata come un potente strumento di ricerca per fare previsioni e come mera esecutrice di compiti alienanti, è messa al servizio dell’umanità, delle altre specie e del pianeta. Un simile scenario, tuttavia, sarebbe realistico se queste tecnologie nascessero all’interno un ordine economico e sociale lontanissimo da quello in cui viviamo, capace di mettere al primo posto il soddisfacimento dei bisogni umani e la tutela di tutte le forme di vita.
Come capisce bene chiunque non abbia perso la lucidità, il mondo in cui viviamo non è questo. Il sistema attuale è stato costruito per massimizzare l’estrazione di ricchezza e profitto – sia dall’essere umano sia dalla natura – portandoci a quella che potremmo definire la fase tecno-necrotica del capitalismo. In questa realtà di iperconcentrazione del potere e della ricchezza, l’intelligenza artificiale, lungi dal giustificare qualsiasi allucinazione utopistica, ha molte più probabilità di diventare uno spaventoso strumento di altri espropri e saccheggi.
Spiegherò più avanti il perché. Prima è utile approfondire la funzione delle allucinazioni utopistiche sull’ia. Che lavoro stanno facendo a livello culturale tutte le ricostruzioni benevole su questi nuovi, strani strumenti? Ecco la mia ipotesi: sono un formidabile, accattivante diversivo per coprire quella che potrebbe rivelarsi la più grande rapina della storia dell’umanità. Davanti ai nostri occhi, le aziende più ricche della storia (Microsoft, Apple, Google, Meta, Amazon) stanno mettendo le mani su tutta la conoscenza umana disponibile gratuitamente in digitale e la stanno usando per scopi privati, rinchiudendola in prodotti di loro proprietà, molti dei quali danneggeranno le persone che, senza dare il consenso, hanno addestrato le macchine con il lavoro di una vita.
Tutto questo non dovrebbe essere permesso. Nel caso dei materiali protetti da diritto d’autore usati per addestrare i software, sono stati già avviati diversi procedimenti in tribunale per dimostrare che si tratta di una pratica illecita. Perché, per esempio, una società a scopo di lucro dovrebbe avere il permesso di addestrare programmi come Stable diffusion o Dall-E con i dipinti, i disegni e le fotografie di artisti viventi per generare dei Doppelgänger (copie) e condividere i frutti con chiunque tranne che con quegli artisti?
La pittrice e illustratrice Molly Crabapple è tra le leader di un movimento di artisti che sta cercando di impedire questo furto. “Le intelligenze artificiali che generano arte sono addestrate con enormi serie di dati che contengono milioni di immagini protette dal diritto d’autore, rastrellate all’insaputa di chi le ha create, ovviamente senza alcun compenso o consenso. È di fatto il più grande furto d’arte della storia, fatto da aziende apparentemente rispettabili, finanziate dalle società d’investimento della Silicon valley. È una rapina alla luce del sole”, si legge in una lettera aperta che Crabapple ha contribuito a scrivere.
Il trucco, ovviamente, è che la Silicon valley è abituata a chiamare il furto disruption, frattura, e troppo spesso la passa liscia. Sappiamo bene come funziona il modello: si entra in un territorio non regolamentato, si dice che per la nuova tecnologia le vecchie regole non valgono, si grida ai quattro venti che la regolamentazione aiuterà solo la Cina e nel frattempo si mette il mondo di fronte al fatto compiuto. Quando finisce l’effetto novità e si cominciano a valutare i danni sociali, politici ed economici di questi nuovi giocattoli, la tecnologia è ormai così diffusa che la politica e la magistratura alzano le mani.
Lo abbiamo visto con le scansioni di libri e opere d’arte fatta da Google, con la colonizzazione dello spazio di Elon Musk, con l’assalto di Uber al settore dei taxi, con l’attacco di Airbnb al mercato degli affitti, con il modo in cui Facebook usa i nostri dati. Non chiedete il permesso, dicono i profeti della disruption, chiedete perdono (e oliatelo con generosi contributi alle campagne elettorali).
Nel saggio Il capitalismo della sorveglianza (Luiss University Press 2023), Shoshana Zuboff spiega come le mappe di Street view di Google abbiano travolto ogni norma sulla privacy mandando in giro le loro auto a scattare fotografie delle strade pubbliche e delle nostre case. Quando sono arrivate le prime denunce per violazione della privacy, Street view era ormai così onnipresente sui dispositivi (e così fico, e così comodo…) che pochissimi tribunali, a eccezione di quelli tedeschi, hanno ritenuto di dover intervenire. Ora la stessa cosa sta succedendo alle nostre parole, alle immagini, alle canzoni, a tutte le nostre vite digitali. Ogni cosa è sequestrata e usata per addestrare le macchine a simulare il pensiero e la creatività. Le aziende sanno benissimo che stanno commettendo un furto, o almeno che ci sono solide basi per sostenerlo, ma sperano che il vecchio schema funzioni ancora una volta, che la rapina sia ormai così grande e rapida che la magistratura e la politica alzeranno di nuovo le mani di fronte alla sua presunta inevitabilità. È anche per questo che le allucinazioni sulle cose meravigliose che l’intelligenza artificiale farà per l’umanità sono così importanti. Le dichiarazioni roboanti servono a mascherare un furto di massa presentandolo come un dono e contemporaneamente razionalizzare i pericoli innegabili.
Forse avrete già sentito parlare del sondaggio in cui è stato chiesto a ricercatori e a programmatori di stimare la probabilità che i sistemi d’intelligenza artificiale avanzata provochino “l’estinzione umana o una perdita di potere della specie umana altrettanto permanente e grave”. Spaventosamente, la risposta mediana è stata che la possibilità è del 10 per cento. Come si può motivare il fatto di andare al lavoro e creare strumenti che comportano un rischio simile? Spesso, la giustificazione è che questi sistemi promettono anche enormi vantaggi. Peccato che siano in gran parte frutto di allucinazioni. Ma ora analizziamo alcune delle più stravaganti.
Allucinazione numero 1 Quasi invariabilmente, in cima alla lista dei vantaggi dell’ia c’è l’affermazione che risolverà in qualche modo la crisi climatica. Lo abbiamo sentito ripetere un po’ da tutti, dal World economic forum al centro studi statunitense Council on foreign relations fino al Boston Consulting Group, una multinazionale della consulenza gestionale. Quest’ultimo spiega che l’ia “può essere usata per favorire un approccio più informato e basato sui dati nella lotta alle emissioni di anidride carbonica e nella costruzione di una società più verde. L’ia può essere impiegata anche per reindirizzare gli sforzi globali sul clima verso le regioni più a rischio”. Eric Schmidt, ex amministratore delegato di Google, ha sintetizzato questa tesi spiegando al mensile statunitense The Atlantic che vale la pena di correre i rischi legati all’ia, perché “se pensiamo alle grandi questioni del mondo, sono tutte molto complicate: il cambiamento climatico, le organizzazioni umane e così via. Ecco perché vorrei sempre che le persone fossero più intelligenti”.
Secondo Schmidt, quindi, l’incapacità di risolvere grandi problemi come la crisi climatica è dovuta a un deficit d’intelligenza. Non importa che da anni persone molto intelligenti, con tanto di dottorati e premi Nobel, ripetano ai governi cosa bisogna fare per uscire da questo pasticcio: tagliare le emissioni, lasciare l’anidride carbonica nel terreno, contrastare i consumi eccessivi dei ricchi e il sottoconsumo dei poveri, perché nessuna fonte d’energia è priva di costi ecologici.
Se questi illuminati consigli sono stati ignorati non è per un problema di comprensione, o perché abbiamo bisogno che le macchine pensino al posto nostro. È perché per fare quello che ci impone la crisi climatica dovremmo rinunciare a migliaia di miliardi di dollari di carburanti fossili, mettendo in discussione il modello di crescita consumistico su cui si basano le nostre economie. La crisi climatica non è un mistero o un enigma che non abbiamo risolto per mancanza di dati abbastanza solidi. Sappiamo benissimo cosa dobbiamo fare, ma purtroppo non è un rimedio rapido: è un cambio di paradigma. Aspettare che le macchine sfornino una risposta più digeribile e redditizia non è una cura, ma un ulteriore sintomo della crisi.
Al di là delle allucinazioni, è molto più probabile che l’ia arriverà sul mercato in forme che aggraveranno ancora di più la crisi climatica. Innanzitutto, i giganteschi server che producono articoli e opere d’arte istantanei grazie ai bot sono una fonte smisurata e crescente di emissioni di anidride carbonica. Inoltre, con aziende come la Coca-Cola, che cominciano a investire su grande scala per sfruttare l’ia generativa a scopi commerciali, è ormai palese che anche questa tecnologia sarà impiegata come tutti gli strumenti digitali di ultima generazione: si comincia con promesse altisonanti di libertà e democrazia e si finisce con annunci pubblicitari mirati per convincerci a comprare ancora più cose inutili e inquinanti.
C’è poi un terzo fattore, un po’ più sfuggente: più i mezzi di comunicazione saranno inondati di deepfake (falsi iperrealistici prodotti dall’intelligenza artificiale) e cloni di vario genere, più aumenterà la sensazione di annaspare nelle sabbie mobili dell’informazione. Geoffrey Hinton, che è stato definito “il padrino dell’intelligenza artificiale” (la rete neurale che ha sviluppato più di dieci anni fa è l’infrastruttura portante dei grandi modelli linguistici di oggi), lo sa molto bene. Hinton ha da poco lasciato un posto da dirigente di Google per poter parlare liberamente dei pericoli della tecnologia che ha contribuito a creare: compreso, come ha spiegato al New York Times, il rischio che la gente “non riesca più a sapere cos’è vero”.
È un punto molto importante quando si parla del presunto ruolo dell’ia nella lotta alla crisi climatica. Perché se cominciamo a diffidare di tutto ciò che leggiamo e vediamo, in un mondo dell’informazione che diventa sempre più indecifrabile, saremo ancora meno attrezzati a risolvere problemi collettivi urgenti. Ovviamente la crisi di fiducia c’era anche prima di ChatGpt, ma non c’è dubbio che la proliferazione dei deepfake sarà accompagnata da una crescita esponenziale della cultura del complotto. Quindi che differenza fa se l’ia porterà a grandi progressi tecnologici e scientifici? Se il tessuto della realtà condivisa si sfalda nelle nostre mani, saremo incapaci di rispondere in modo coerente.
La minaccia potrebbe allargarsi: i chatbot ci toglieranno il lavoro più noioso e faticoso, ma non è detto che ci porteranno via solo quello
Allucinazione numero 2 È quella che evoca un futuro prossimo in cui politici e burocrati, potendo attingere alle potenti capacità dei sistemi d’intelligenza artificiale, riusciranno a “individuare i bisogni ricorrenti e a sviluppare programmi di provata efficacia” con maggiori benefici per i cittadini. Quest’affermazione è contenuta in un documento della fondazione del Boston Consulting Group, ma è stata ripresa da molti centri studi e società di consulenza aziendale. È significativo che queste particolari società – le stesse ingaggiate da governi e aziende private per individuare possibili tagli alle spese, che spesso si traducono in licenziamenti di massa – siano state le prime a saltare sul carro dell’intelligenza artificiale. La Pwc (ex PricewaterhouseCoopers) ha annunciato un investimento di un miliardo di dollari, e pare che la Bain & Company e la Deloitte siano entusiaste all’idea di usare questi strumenti per aiutare i loro clienti a diventare più “efficienti”.
Come con la crisi climatica, è necessario chiedersi: il motivo per cui i politici impongono misure crudeli e inefficaci è la mancanza di prove? Un’incapacità di “individuare schemi ricorrenti”, come suggerisce lo studio del Boston Consulting Group? Forse non capiscono quali sono i costi umani provocati dai tagli alla sanità pubblica durante una pandemia, dai mancati investimenti negli alloggi popolari mentre i parchi urbani si riempiono di tende o dalla realizzazione di nuove infrastrutture per i carburanti fossili mentre le temperature aumentano? Hanno bisogno dell’ia per diventare “più intelligenti”, per usare l’espressione di Schmidt, o sono già sufficientemente intelligenti da sapere chi finanzierà la loro prossima campagna elettorale (o, se non si adeguano, quella dei loro avversari)?
Sarebbe meraviglioso se l’ia riuscisse davvero a recidere il legame tra il capitale privato e le politiche più irresponsabili, ma quel legame è precisamente il motivo per cui ad aziende come Google e la Microsoft è stato consentito di lanciare i loro chatbot nonostante la valanga di avvertimenti e i rischi noti. Sono anni che
Schmidt e altri fanno pressione per spiegare ai politici statunitensi che se non li lasceranno liberi di andare avanti con l’ia generativa, senza il fardello di una seria regolamentazione, le potenze occidentali si ritroveranno a rincorrere la Cina. L’anno scorso le grandi aziende tecnologiche hanno speso settanta milioni di dollari per fare pressioni su Washington, più del settore energetico. Questa somma, osserva Bloomberg News, si aggiunge ai milioni spesi “per la loro ampia gamma di associazioni di categoria, organizzazioni non profit e centri studi”.
Eppure, anche se tutti sanno quanto il denaro influenzi la politica, Sam Altman, l’amministratore delegato della OpenAi, l’azienda che ha creato ChatGpt, parla degli scenari più ottimistici legati ai suoi prodotti come se nulla fosse. Anzi, vaneggia di un mondo che non c’entra niente con il nostro, un mondo in cui i politici e le aziende prendono decisioni basate sui migliori dati disponibili e non metterebbero mai a repentaglio le vite di milioni di persone in nome del profitto e di vantaggi geopolitici. Questo ci porta a un’altra allucinazione.
Allucinazione numero 3 Quando gli hanno chiesto se fosse preoccupato per la frenetica corsa all’oro scatenata da ChatGpt, Altman ha detto di sì, ma ha aggiunto: “Speriamo che tutto si sistemi”. A proposito degli altri capi d’azienda, quelli che cercano di battere sul tempo i chatbot della concorrenza, ha detto: “Credo che gli angeli buoni vinceranno”. Angeli buoni? Sono abbastanza sicura che Google, per esempio, li abbia licenziati quasi tutti, perché avevano pubblicato articoli che criticavano l’ia o perché hanno accusato l’azienda di razzismo o molestie sessuali sul luogo di lavoro. Altri angeli buoni, come Hinton, si sono dimessi per lanciare l’allarme. Perché a dispetto delle allucinazioni di chi ha solo da guadagnare dall’intelligenza artificiale, Google non prende decisioni in base a ciò che è meglio per il mondo, ma in base a ciò che è meglio per gli azionisti della Alphabet, che non vogliono perdere il treno su cui sono già salite la Microsoft, la Meta e la Apple.
Allucinazione numero 4 Se a molte persone le benevole allucinazioni della Silicon valley sembrano plausibili, il motivo è semplice: oggi l’ia generativa sta attraversando quella che potremmo definire la sua fase finto-socialista. Tutto questo fa parte di uno schema ormai consolidato. Prima si crea un prodotto attraente (un motore di ricerca, uno strumento per le mappe digitali, un social network, una piattaforma video, un servizio di trasporto privato); poi per qualche anno lo si mette a disposizione gratis o quasi, senza un chiaro modello aziendale (“Giocate con i bot”, ci dicono, “guardate quante cose divertenti si possono fare!”); quindi si giura di essere animati solo da nobili intenzioni, come creare una “piazza cittadina” o “un bene comune dell’informazione” per “unire le persone” e contribuire a diffondere la libertà e la democrazia (dimostrando così di non essere “il male”); e alla fine si aspetta che il mondo si abitui a usare questi strumenti gratuiti e che i concorrenti falliscano. Una volta che il campo è libero, arrivano le pubblicità mirate, la sorveglianza costante, i contratti con la polizia e l’esercito, la vendita dei dati delle scatole nere e l’aumento dei costi d’abbonamento.
Molte vite e molte industrie sono state già decimate dall’attuazione di questo schema, dai tassisti al mercato degli affitti ai giornali locali. La rivoluzione dell’intelligenza artificiale farà sembrare queste perdite dei semplici errori di arrotondamento, con insegnanti, programmatori, grafici, giornalisti, traduttori, musicisti, operatori sanitari e molti altri professionisti che rischiano di vedersi rimpiazzati da un codice che ogni tanto non funziona.
Se cominciamo a diffidare di quello che leggiamo e vediamo, saremo meno attrezzati a risolvere problemi collettivi urgenti
Non preoccupatevi, vaneggiano i fanatici dell’ia, sarà tutto bellissimo. In fondo, a chi piace lavorare? L’ia generativa non sarà la fine del lavoro, ci dicono, ma solo del “lavoro noioso”: i chatbot svolgeranno servizievolmente tutti i compiti più alienanti e ripetitivi e gli esseri umani si limiteranno a controllarli. Altman, dal canto suo, immagina un futuro in cui il lavoro “può essere un concetto più ampio, non qualcosa che si è costretti a fare per mangiare, ma qualcosa che si fa per esprimersi in modo creativo e per trovare appagamento e felicità”.
È una visione affascinante di una vita più bella e più libera dai doveri, per altro condivisa da molte persone di sinistra (compreso il genero di Karl Marx, Paul Lafargue, che scrisse un manifesto intitolato Il diritto all’ozio). Chi è di sinistra, però, sa anche un’altra cosa, e cioè che se il guadagno non dev’essere l’imperativo guida dell’esistenza, bisogna trovare altri modi di soddisfare il bisogno di un riparo e di sostentamento. Un mondo senza mestieri di merda significa che la casa deve essere gratuita, la sanità dev’essere gratuita e che ogni individuo deve avere diritti economici inalienabili. A questo punto non stiamo più parlando d’intelligenza artificiale: stiamo parlando di socialismo.
Milioni di persone
Purtroppo, però, non viviamo nel mondo razionale, umanista e vagamente ispirato a Star trek di cui Altman sembra farneticare. Viviamo in un sistema capitalista in cui inondando il mercato di tecnologie realisticamente in grado di svolgere le mansioni di milioni di persone che lavorano non si ottiene l’effetto di rendere queste persone improvvisamente libere di dedicarsi alla filosofia e all’arte. Significa che si ritroveranno sull’orlo del baratro. E tra i primi a cadere ci saranno gli artisti.
È questo il messaggio della lettera aperta di Crabapple, che invita “artisti, editori, giornalisti, direttori e rappresentanti sindacali della stampa a impegnarsi per i valori umani contro l’uso delle immagini prodotte dall’ia generativa” e “a sostenere l’arte realizzata dalle persone, non dai server”. L’appello, firmato da centinaia di artisti, giornalisti e rappresentanti di altre professioni, sostiene che a eccezione di un’élite ristretta di artisti, il lavoro di tutti è “a rischio d’estinzione”. E secondo Hinton, il “padrino dell’intelligenza artificiale”, non c’è motivo di credere che la minaccia non si allarghi. I chatbot “ci portano via il lavoro più noioso e faticoso”, ma “potrebbero portarci via non solo quello”.
Scrivono Crabapple e gli altri firmatari: “L’arte generata dall’intelligenza artificiale è come un vampiro che banchetta sulle opere d’arte delle generazioni precedenti e succhia la linfa vitale degli artisti ancora in vita”. Ma ci sono dei modi per resistere: possiamo rifiutarci di usare questi prodotti e organizzarci per pretendere che lo facciano anche i governi e le aziende.
◆ Le immagini che illustrano quest’articolo sono del fotografo britannico Phillip Toledano. Fanno parte della serie doitforthelike, un lavoro sulle dinamiche dei social nework. I finti scatti, realizzati usando l’intelligenza artificiale, mostrano persone che posano felici nel luogo di un disastro.
Una lettera di un gruppo di importanti studiosi di etica dell’intelligenza artificiale (tra cui Timnit Gebru, licenziata da Google nel 2020 per avere denunciato le pratiche discriminatorie dell’azienda sul luogo di lavoro) elenca alcuni strumenti che i governi potrebbero introdurre già ora, a cominciare dalla piena trasparenza sui dati usati per addestrare i software. Scrivono gli autori: “Non solo dovremmo sempre essere chiaramente informati quando abbiamo a che fare con i contenuti prodotti dall’intelligenza artificiale. Le organizzazioni che sviluppano questi sistemi dovrebbero essere obbligate a documentare e a rendere pubblici i dati usati per addestrare i modelli e le architetture sottostanti. Dovremmo costruire macchine che lavorano per noi, e non ‘adattare’ la società a essere leggibile e scrivibile dalle macchine”.
Anche se le aziende tecnologiche vorrebbero farci credere che è già troppo tardi per ricacciare indietro questa tecnologia di sostituzione e imitazione di massa, esistono importanti precedenti che possono essere applicati. La Federal trade commission (Ftc, l’antitrust degli Stati Uniti) ha imposto alla Cambridge Analytica e alla Everalbum, proprietaria di una app per le foto, di distruggere interi algoritmi addestrati con dati e fotografie acquisiti illegalmente. Nei primi giorni del suo mandato l’amministrazione guidata da Joe Biden ha fatto molte promesse ambiziose sulla necessità di regolamentare i colossi tecnologici, a partire da un giro di vite sul furto dei dati personali finalizzato alla costruzione di algoritmi proprietari. Con l’avvicinarsi delle elezioni presidenziali negli Stati Uniti sarebbe ora di tenere fede a quelle promesse ed evitare la prossima ondata di licenziamenti di massa prima che sia troppo tardi.
Un mondo di deepfake, software che ci imitano e disuguaglianza crescente non è una conclusione inevitabile. È il risultato di precise scelte politiche. Attraverso la regolamentazione, possiamo mettere al bando i chatbot-vampiri di oggi e cominciare a costruire un mondo in cui le promesse più entusiasmanti dell’intelligenza artificiale siano qualcosa di più solido delle allucinazioni della Silicon valley.
Siamo noi che abbiamo addestrato le macchine, ma non abbiamo dato il consenso. Questi modelli si nutrono dell’ingegno, dell’ispirazione e delle rivelazioni collettive dell’umanità. Sono macchine per la raccolta e l’appropriazione, che divorano e privatizzano non solo le nostre vite, ma anche i nostri patrimoni intellettuali e artistici. Il loro obiettivo non è mai stato risolvere la crisi climatica, rendere i governi più responsabili o la vita più piacevole. È sempre stato approfittare dell’impoverimento di massa, che nel capitalismo è la conseguenza lampante e logica di sostituire le funzioni umane con dei robot. Sto esagerando? La mia è solo resistenza istintiva e retrograda ai prodigi dell’innovazione? Perché aspettarsi il peggio? Altman ci rassicura: “Nessuno vuole distruggere il mondo”. Forse no. Ma come ci dimostra ogni giorno l’aggravarsi della crisi climatica, molte persone e istituzioni non sembrano preoccuparsi del fatto che stiamo contribuendo a distruggere la stabilità dei sistemi che permettono al mondo di sopravvivere: gli importa solo di continuare a incassare profitti da record che, credono, proteggeranno loro e le loro famiglie dagli effetti più nefasti. Altman, come molte creature della Silicon valley, è un survivalista (le persone che si preparano a sopravvivere a catastrofi epocali). Nel 2016 diceva: “Ho fucili, oro, ioduro di potassio, antibiotici, batterie, acqua, maschere antigas delle forze di difesa israeliane e un bel pezzo di terra a Big Sur dove posso scappare”. Sono sicura che queste parole dicano molto di più su quello che Altman pensa davvero del futuro che sta contribuendo a creare rispetto alle allucinazioni infiorettate che ama condividere nelle interviste. ◆ fas
Naomi Klein è una giornalista canadese. Il suo ultimo libro uscito in Italia è Il mondo in fiamme (Feltrinelli 2019).
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it
Questo articolo è uscito sul numero 1515 di Internazionale, a pagina 46. Compra questo numero | Abbonati