Nel racconto di Arthur C. Clarke I nove miliardi di nomi di Dio, una setta di monaci tibetani crede che l’umanità abbia uno scopo divino: compilare una lista di tutti i nomi di Dio. Quando sarà completa, pensano, Dio metterà fine all’universo. Dopo averla stilata a mano per secoli, i monaci decidono di usare una tecnologia moderna. Due ingegneri scettici arrivano sull’Himalaya con dei potenti computer al seguito. Invece che in quindicimila anni, il lavoro di scrivere tutti i possibili nomi di Dio è completato in tre mesi. Mentre gli ingegneri scendono dalla montagna in sella ai loro pony, il racconto si conclude con una delle frasi finali più laconiche della storia della letteratura: “In alto, senza nessun clamore, le stelle si stavano spegnendo”.
Il racconto ci restituisce un’immagine del computer come scorciatoia per un significato supremo, che è anche uno degli ingredienti dell’attuale infatuazione per l’intelligenza artificiale (ia). Anche se le tecnologie su cui questa si basa esistono da diversi anni, solo dalla fine del 2022, con la creazione di ChatGpt della OpenAi, l’intelligenza artificiale è sembrata davvero più vicina. In un rapporto pubblicato dalla Microsoft Canada nel 2023, il presidente Chris Barry ha proclamato: “L’era dell’ia è arrivata, portandosi dietro un’ondata di trasformazioni che potrebbero toccare ogni sfaccettatura della nostra vita”. E ha aggiunto: “Non è solo un progresso tecnologico, è un cambiamento della società”. Questa è una delle reazioni più equilibrate. Artisti e scrittori sono in preda al panico perché temono di diventare superati, i governi si affannano per mettersi al passo e fissare regole, mentre gli studiosi discutono accanitamente.
Se vi ritrovate a chiedere il significato della vita all’intelligenza artificiale, non è la risposta a essere sbagliata, ma la domanda
Le aziende non vedono l’ora di salire su questo carro. Alcune delle più grandi del mondo, tra cui la Microsoft, la Meta e la Alphabet, stanno investendo tutto sull’ia. In aggiunta ai miliardi spesi dai colossi della tecnologia, nel 2023 i finanziamenti per le startup dell’ia hanno sfiorato i cinquanta miliardi di dollari. A un evento che si è tenuto alla Stanford university, l’amministratore delegato della OpenAi Sam Altman ha detto che nella sua visione del futuro c’è una specie di super-assistente, un “collega supercompetente che sa tutto della mia vita, ogni email e ogni conversazione che ho avuto, ma che non sembra una mia estensione”.
Però c’è anche chi è convinto che l’ia sia una minaccia. Il filosofo svedese Nick Bostrom è tra le voci più autorevoli a sostenere che l’ia sia una minaccia alla nostra esistenza. Come ha osservato nel suo libro Superintelligenza (Bollati Boringhieri 2023), se “costruissimo cervelli macchina che sovrastano il cervello umano nell’intelligenza generale le sorti della nostra specie dipenderebbero dalle azioni della superintelligenza della macchina”. A questo proposito, la storia che si racconta sempre è quella di un sistema d’intelligenza artificiale che ha l’unico compito, apparentemente innocuo, di costruire graffette. Secondo Bostrom, il sistema capirebbe subito che gli umani sono un ostacolo a questo compito, perché potrebbero spegnere la macchina. Inoltre, potrebbero consumare le risorse necessarie per fabbricare altre graffette. È un esempio di quello che i più pessimisti chiamano “problema del controllo”: la paura di perdere il controllo dell’ia perché ogni difesa che abbiamo costruito al suo interno sarà smantellata da un’intelligenza enormemente più avanti di noi.
Prima di cedere altro terreno ai nostri dominatori tecnologici, vale la pena di tornare con la mente alla metà degli anni novanta e all’avvento del world wide web. Anche questo fu accompagnato da grandi proclami su una nuova utopia, un mondo connesso in cui le frontiere, le differenze e le privazioni non sarebbero più esistite. Oggi è difficile sostenere che internet sia stata incondizionatamente un bene. In effetti si sono avverate delle cose belle: oggi possiamo portarci in tasca l’intera conoscenza umana. Tutto questo, però, ha avuto l’effetto piuttosto strano di far arrabbiare la gente, incoraggiando il malcontento e la polarizzazione, favorendo una nuova ondata dell’estrema destra e destabilizzando la democrazia e la verità.
Non dobbiamo semplicemente resistere alla tecnologia (che, in fin dei conti, può avere anche effetti liberatori). Ma quando le grandi aziende tecnologiche arrivano portando doni, sarebbe meglio guardare cosa c’è nella scatola.
Quello che allo stato attuale chiamiamo intelligenza artificiale è un software incentrato prevalentemente sui modelli linguistici di grandi dimensioni o llm (large language models). I modelli sono alimentati con gigantesche serie di dati – ChatGpt ha sostanzialmente risucchiato l’intera rete internet pubblica – e addestrati a trovare degli schemi al loro interno. Le unità di significato come vocaboli, parti di vocaboli e caratteri, diventano simboli a cui sono assegnati dei valori numerici. I modelli imparano in che modo ogni simbolo si relaziona agli altri e, con il tempo, crea qualcosa di simile a un contesto: dove può comparire una parola, in che ordine e così via.
Di per sé, non sembra nulla di eccezionale. Recentemente, però, ho chiesto a ChatGpt di scrivere una storia su una nuvola cosciente che si sentiva triste quando usciva il sole, e il risultato è stato sorprendentemente umano. Non solo il chatbot ha riprodotto i vari elementi che compongono una favola per bambini, ma ha anche previsto un arco narrativo in cui, alla fine, la nuvola Nimbus trova un angolo nel cielo e fa la pace con una giornata di sole. La storia non si può definire bella, ma probabilmente piacerebbe al mio nipotino di cinque anni.
Robin Zebrowski, professore e capo del dipartimento di scienza cognitiva del Beloit college in Wisconsin, negli Stati Uniti, spiega così l’umanità che ho percepito: “Le uniche cose autenticamente linguistiche che abbiamo mai incontrato sono dotate di una mente. Perciò quando incontriamo qualcosa che apparentemente usa il linguaggio nel modo in cui lo usiamo noi pensiamo: ‘Ah, questa è chiaramente una cosa che ha una mente’”.
Ecco perché, per decenni, il metodo standard per determinare se la tecnologia si stava avvicinando all’intelligenza è stato il test di Turing, dal nome del suo creatore Alan Turing, matematico britannico e decifratore di codici durante la seconda guerra mondiale. Il test prevede un intervistatore umano che rivolge delle domande a due soggetti nascosti – un computer e un altro essere umano – per stabilire quale dei due è la macchina. Varie persone interpretano i ruoli di chi fa le domande e di chi risponde, e se una percentuale sufficiente dei primi viene ingannata, si può dire che la macchina ha mostrato un comportamento intelligente. ChatGpt è già in grado d’ingannare almeno alcune persone. Questi test rivelano quanto il nostro concetto dell’intelligenza sia strettamente legato al linguaggio. Tendiamo a pensare che dei soggetti capaci di usarlo siano intelligenti: ci stupiamo di fronte a un cane che sembra capire comandi più complessi, o di un gorilla che comunica nel linguaggio dei segni, proprio perché questi comportamenti sono più vicini ai meccanismi che usiamo per rendere comprensibile il mondo.
Ma saper usare il linguaggio senza anche pensare, sentire, volere o essere è probabilmente il motivo per cui la scrittura dei chatbot dell’intelligenza artificiale è così esanime e generica. Siccome gli llm prendono in esame gigantesche serie di dati e analizzano come si relazionano tra di loro, spesso sputano fuori enunciati che sembrano perfettamente ragionevoli ma che sono sbagliati,senza senso o semplicemente bizzarri. La riduzione del linguaggio a una mera raccolta di dati spiega anche perché, per esempio, quando ho chiesto a ChatGpt di scrivere una mia biografia, mi ha detto che sono nato in India, che ho frequentato la Carleton university e che sono laureato in giornalismo, sbagliandosi tre volte su tre (le informazioni corrette erano Regno Unito, York university e inglese). Per ChatGpt, la forma della risposta, espressa con tono sicuro, era più importante del contenuto; lo schema giusto contava più della risposta giusta.
Nonostante questo, l’idea degli llm come ricettacoli di significato che vengono poi ricombinati è in linea con alcune idee della filosofia del novecento sul modo in cui gli umani pensano, si rapportano al mondo e creano arte. Il filosofo francese Jacques Derrida, basandosi sul lavoro del linguista Ferdinand de Saussure, sosteneva che il significato è differenziale: il senso di ogni parola dipende da quello di altre. Pensiamo a un dizionario: il significato delle parole può essere spiegato solo da altre parole, che a loro volta possono essere spiegate solo da altre parole. Ciò che manca sempre è una sorta di significato oggettivo esterno che metta fine a questa interminabile catena di significanza. Siamo bloccati all’infinito in questo circolo di differenza. Alcuni, come lo studioso di letteratura russo Vladimir Propp, hanno teorizzato che sia possibile scomporre le narrazioni folcloristiche in elementi strutturali costitutivi. Ovviamente, questo principio non si applica a tutte le narrazioni, ma ci fa vedere che combinando le unità di una storia – azione iniziale, crisi, risoluzione e così via – è possibile crearne una che parla di una nuvola triste.
Oggi l’intelligenza artificiale può prendere due o più cose precedentemente scollegate, come il panorama di Toronto e lo stile degli impressionisti, e metterle insieme per creare qualcosa che prima non esisteva. Tutto questo, però, ha un’implicazione inquietante. In un certo senso, non è così che pensiamo anche noi? Raphaël Millière, assistente della Macquarie university di Sydney, in Australia, dice che, per esempio, sappiamo cos’è un animale domestico (una creatura che teniamo a casa con noi) e sappiamo anche cos’è un pesce (un animale che nuota in grandi bacini d’acqua). Combinando le due nozioni, conserviamo alcune caratteristiche e ne scartiamo altre per formare un nuovo concetto: un pesce domestico. Gli ultimi modelli dell’intelligenza artificiale vantano la stessa capacità di amalgamare diversi elementi e di produrre qualcosa di apparentemente nuovo, ed è proprio per questo che sono chiamati “generativi”.
Anche discussioni relativamente complesse possono essere ricondotte a questo schema. Il problema della teodicea è da secoli oggetto di dibattito tra i teologi. La domanda che pone è: se Dio è infinitamente buono e onnisciente, onnipotente e onnipresente, come può esistere il male quando Dio sa che accadrà e può impedirlo? A rischio di banalizzare la questione, anche la teodicea è in qualche modo una specie di rompicapo logico, uno schema d’idee che può essere ricombinato in modi particolari. Non voglio dire che l’ia sia in grado rispondere alle nostre domande epistemologiche o filosofiche più profonde, ma effettivamente ci mostra che la linea che separa gli esseri pensanti dalle macchine capaci di riconoscere schemi ricorrenti non è così netta come forse speravamo.
La sensazione che ci sia una “cosa pensante” dietro i chatbot dell’intelligenza artificiale si deve anche all’idea ormai molto diffusa che nessuno sa esattamente come funzionano i suoi sistemi. Il cosiddetto problema della scatola nera è spesso posto in termini mistici: i robot sono talmente avanti e così alieni che sicuramente stanno facendo qualcosa che non capiamo. È vero, ma non del tutto. Secondo Leif Weatherby, professore della New York university, i modelli elaborano talmente tante combinazioni di dati che per una persona sola è impossibile concepire una cosa del genere. Il misticismo dell’intelligenza artificiale non è una mente imperscrutabile che sta dietro le quinte: è una pura questione di scala e forza bruta.
Eppure, anche in questa distinzione – cioè che l’intelligenza artificiale è in grado di usare il linguaggio solo attraverso la potenza di calcolo – c’è una domanda interessante su cosa significa pensare. Kristin Andrews, studiosa dell’intelligenza animale alla New York university, osserva che ci sono molte attività cognitive – ricordarsi come procurarsi da mangiare, riconoscere gli oggetti o le altre creature – che gli animali svolgono senza esserne consapevoli. In questo senso, all’ia potrebbe essere benissimo attribuito un comportamento intelligente perché è in grado di riprodurre quella che normalmente chiamiamo “cognizione”. Ma, come sottolinea Andrews, nulla fa pensare che l’ia abbia un’identità, una volontà o dei desideri. Buona parte di ciò che produce la volontà e il desiderio si trova nel corpo, non solo nel senso ovvio del desiderio erotico, ma anche nella relazione più complessa tra una soggettività interiore, il nostro inconscio e come ci muoviamo in quanto corpi nel mondo, elaborando e reagendo alle informazioni. Secondo Zebrowski, “il corpo conta per come pensiamo, perché pensiamo e per cosa pensiamo”. E aggiunge: “Non si può prendere un programma informatico, ficcarlo nella testa di un robot e avere un’entità corporea”.
I computer possono effettivamente avvicinarsi a ciò che chiamiamo pensiero, ma non sognano, non vogliono, non desiderano, e questo conta di più di quanto non vogliano farci credere i fanatici dell’ia. Quando usiamo la nostra intelligenza per trovare soluzioni alle crisi economiche o per contrastare il razzismo, lo facciamo per un senso di moralità, di obbligo verso chi ci circonda, il nostro senso acquisito che abbiamo la responsabilità di migliorare le cose in un modo specifico e moralmente significativo.
Forse, allora, il computer del racconto di Clarke – una specie di scorciatoia per la trascendenza o l’onniscienza – è un modello sbagliato. Forse è più accurato Pensiero Profondo, il computer di Guida galattica per gli autostoppisti di Douglas Adams. Quando gli viene chiesto di rispondere “alla domanda fondamentale sulla vita, l’universo e tutto quanto”, risponde ottusamente “42”. L’assurdità della domanda mette in luce una verità spesso dimenticata: la vita e il suo significato non possono essere ridotti a un semplice enunciato o a una lista di nomi, esattamente come il pensiero e i sentimenti umani non possono essere ridotti a qualcosa che viene scandito da una serie di uno e zeri. Se vi ritrovate a chiedere il significato della vita all’intelligenza artificiale, non è la risposta a essere sbagliata, ma la domanda.
A marzo del 2024 ho trascorso due giorni nella sede centrale della Microsoft, alla periferia di Seattle. Tra gli operatori storici della tecnologia, la Microsoft è forse quella che ha scommesso di più sull’intelligenza artificiale. Per dimostrarlo ha convocato giornalisti da tutto il mondo per un “tour del campus dell’innovazione”, una sfilata ubriacante di conferenze e dimostrazioni, pranzi e cene negli innumerevoli ristoranti interni della sede e due notti in un albergo che normalmente non potremmo permetterci.
Siamo stati accompagnati in un centro di ricerca, dove abbiamo messo dei tappi per le orecchie per isolarci dal brusio di una mini-platea di fan. Abbiamo partecipato a numerose tavole rotonde: su come i gruppi di lavoro stanno integrando l’ia, su come le persone incaricate dell’“ia responsabile” stanno cercando di imbrigliare la tecnologia prima che le cose degenerino, e via dicendo. Tutti hanno detto che questo lavoro sarà il futuro del mondo. Durante un incontro, l’affabile Seth Juarez, responsabile del programma principale delle piattaforme di ia, ha spiegato che l’intelligenza artificiale si sta evolvendo dalla fase della pala a quella del trattore e che, per usare le sue parole, “livellerà l’umanità verso l’alto”.
Alcune cose sono state di grande ispirazione, come la presentazione di Saqib Shaikh, che è cieco e lavora da anni allo sviluppo di SeeingAi, un’app capace di descrivere in tempo reale gli oggetti presenti nel suo campo visivo. Abbiamo visto idee promettenti su come usare l’ia: per preservare le lingue in via di estinzione, per migliorare l’attendibilità delle risonanze per i tumori o per prevedere meglio dove usare le risorse per la risposta alle calamità naturali. Di solito le soluzioni sono il risultato dell’elaborazione di grandi quantità di dati e del riconoscimento e dell’analisi degli schemi ricorrenti al loro interno.
Al termine di una tavola rotonda sulla ricerca nel campo dell’intelligenza artificiale, ci è stata offerta una copia a testa di un libro intitolato Ai for good (ia per sempre), che elenca altri possibili usi altruistici della tecnologia. Uno dei progetti che cita prevede l’uso del machine learning (apprendimento automatico) per stabilire dove installare dei pannelli solari in India. Sono messaggi incoraggianti, che ci danno la speranza che, forse, alcune cose miglioreranno. Il fatto però è che, per esempio, molti dei problemi che impediscono di produrre energia solare in India non hanno nulla a che fare con la mancanza di conoscenze. Più spesso, sono la mancanza di risorse o di volontà politica, la forza di interessi radicati e, banalmente, i soldi.
Spesso è proprio questo che sfugge alla visione utopica del futuro: se e quando il cambiamento ci sarà, la domanda sarà se e come una certa tecnologia verrà distribuita, impiegata, adottata, come i governi decideranno di attribuire le risorse, come saranno bilanciati gli interessi delle varie parti interessate, come un’idea sarà presentata e messa in pratica e così via. In poche parole, sarà una questione di volontà politica, di risorse e di scontro tra ideologie e interessi contrastanti. I problemi del mondo – non solo gli sconvolgimenti climatici, ma anche la crisi degli alloggi, la crisi degli stupefacenti o il montare dell’ostilità verso i migranti – non si possono imputare a una mancanza d’intelligenza o di potenza di calcolo. In alcuni casi, la soluzione di questi problemi è apparentemente semplice. I rimedi, però, sono difficili da mettere in atto a causa di forze sociali e politiche. In altre parole, ciò che frena il progresso su questi temi è ciò che alla fine frena qualsiasi cosa: noi.
L’idea di un’intelligenza esponenzialmente più grande, che tanto entusiasma le grandi aziende tecnologiche, è una strana fantasia che astrae l’intelligenza dipingendola come un superpotere che può solo aumentare. Vista così, la capacità di risolvere i problemi è come il volume di uno stereo che può essere alzato sempre di più girando una manopola. Questo genere di assunto si chiama “utopismo tecnologico”, secondo l’espressione coniata una decina d’anni fa dal sociologo Evgeny Morozov.
Alcuni uomini d’affari della Silicon valley hanno portato l’utopismo tecnologico all’estremo. Questi accelerazionisti dell’ia sono quelli che hanno le idee più terrificanti. Marc Andreessen è stato coinvolto in prima persona nella creazione dei primi browser per il web e oggi è un investitore miliardario che si è caricato sulle spalle la missione di combattere contro “il virus della mente woke” nell’interesse del capitalismo e dell’ideologia libertaria. In un volume pubblicato nel 2023 intitolato The techno-optimist manifesto (Il manifesto tecno-ottimista), Andreessen spiega che “non esiste un problema materiale creato dalla natura o dalla tecnologia che non può essere risolto con altra tecnologia”. Quando lo storico Rick Perlstein ha partecipato a una cena nella villa da 34 milioni di dollari di Andreessen in California, si è trovato di fronte un gruppo strenuamente contrario a qualsiasi regolamentazione o restrizione della tecnologia. Quando Perlstein ha raccontato la sua esperienza a un collega, quest’ultimo “ha ricordato che secondo un suo studente tutti gli annosi problemi di cui si preoccupavano gli storici sarebbero stati tranquillamente risolti da computer più potenti, e che di conseguenza l’intera attività umanistica era vagamente ridicola”.
Nel manifesto di Andreessen c’è un capitolo in cui elenca una serie di nemici. Sono tutti i classici spauracchi della destra: la regolamentazione, gli accademici sapientoni, le restrizioni all’“innovazione”, i progressisti. Per un investitore, sono tutti mali evidenti. Dal 2008 Andreessen fa parte del consiglio di amministrazione di Facebook/Meta, un’azienda che ha permesso alla disinformazione di devastare le istituzioni democratiche. Eppure, sostiene, apparentemente senza la minima traccia di ironia, che gli esperti “stanno giocando a fare Dio con le vite degli altri, completamente al riparo dalle conseguenze”.
Dopo averne parlato con gli esperti, mi sembra che la promessa dell’intelligenza artificiale sia semplicemente legata alla capacità di elaborare serie di dati troppo grandi per essere gestite dagli umani. L’applicazione dei sistemi di riconoscimento degli schemi ricorrenti nella biologia o nella fisica probabilmente darà risultati utili e affascinanti. Altri usi dell’ia sembrano più banali, almeno per ora: analizzare i bilanci e fare quadrare i conti, trascrivere e fare i verbali delle riunioni, smistare in maniera più efficiente le email, facilitare l’accesso a cose semplici come gli itinerari di viaggio.
Questo però non vuol dire che l’intelligenza artificiale sia una specie di agente benevolo. Un modello di ia può essere addestrato su miliardi di dati, ma non può dirci se una cosa è buona o se ha valore per noi, e non c’è motivo di credere che lo farà in futuro. Diamo delle valutazioni morali non con un indovinello logico, ma attraverso una considerazione su cosa è irriducibile per noi: soggettività, dignità, interiorità, desiderio. Insomma, tutte le cose che l’ia non ha.
Dire che l’intelligenza artificiale sarà in grado da sola di produrre arte significa non capire perché ci rivolgiamo all’arte. Ci piacciono le cose fatte da altri esseri umani perché c’importa di ciò che gli esseri umani dicono e provano rispetto alla propria esperienza di persone e corpi nel mondo. C’è anche una questione di quantità. Abbattendo le barriere alla creazione di contenuti, l’intelligenza artificiale inonderà il mondo di spazzatura. Già ora sta diventando difficile usare Google perché il web è invaso da contenuti generati dalle ia per raccogliere clic.
Un altro motivo di preoccupazione è la sovrapposizione dell’ia ai modelli esistenti. Come mi ha spiegato Damien P. Williams, professore della University of North Carolina a Charlotte, i modelli di apprendimento assorbono masse di dati basati su ciò che è e su ciò che è stato. Per loro, quindi, è difficile evitare i pregiudizi, passati e presenti. Williams osserva che se si chiede all’ia di riprodurre, per esempio, un medico che sgrida un infermiere, l’ia darà per scontato che il medico è maschio e l’infermiere è un’infermiera. L’intelligenza artificiale si basa su ciò che è stato, e provare a tenere conto della miriade di modi in cui ci rapportiamo e rispondiamo ai pregiudizi del passato sembra semplicemente fuori della sua portata. Il problema strutturale del pregiudizio esiste da un po’ di tempo. Gli algoritmi sono stati già usati in passato per misurare cose come l’affidabilità dei creditori, e l’uso dell’ia in campi come le risorse umane sta già replicando dei pregiudizi. In entrambi i casi, all’interno dei sistemi digitali sono emersi pregiudizi razziali esistenti.
Questo non vuol dire che l’intelligenza artificiale non sarà anche in grado di ucciderci. Recentemente, un’inchiesta ha rivelato che Israele sta usando una versione di ia chiamata Lavender per attaccare gli obiettivi militari a Gaza. Il sistema dovrebbe identificare i miliziani di Hamas e della jihad islamica palestinese e poi comunicare la loro posizione, abitazione compresa, per un eventuale attacco aereo. Secondo la rivista palestinese israeliana +972 Magazine, molti di questi attacchi hanno ucciso dei civili.
In sé la minaccia dell’intelligenza artificiale non è quella di una macchina o di un sistema che decide di punto in bianco di sterminare l’umanità. È il fatto di dare per scontato che l’ia sia intelligente e di affidare ai software informatici funzioni sociali e politiche cruciali. A diventare parte integrante della vita quotidiana non è solo la tecnologia in quanto tale, ma la logica e l’ethos della tecnologia e l’ideologia libertaria-capitalista che c’è dietro.
La domanda, quindi, è a che scopo si usa l’intelligenza artificiale, in che contesto e con quali limitazioni. “Si può usare l’ia per realizzare auto che si guidano da sole?”, è una domanda interessante. Ma quelle più importanti sono altre: se lasciare che queste auto girino per le strade, a quali condizioni, all’interno di quali sistemi. Un’intelligenza artificiale non può rispondere a queste domande al posto nostro.
Dai patiti delle tecnologie che affidano a un’intelligenza sovrumana le loro speranze di umano progresso fino agli eserciti che usano i software di ia per scovare i propri obiettivi, tutti tradiscono lo stesso desiderio di una figura di autorità oggettiva a cui rivolgersi. Quando chiediamo a un’intelligenza artificiale di dare un senso al mondo non siamo forse già intrappolati nella logica dell’ia? Siamo invasi da detriti digitali, dalla cacofonia del presente, e per reazione, cerchiamo un assistente sovrumano che estragga il vero dal pantano del falso e del fuorviante, spesso per essere fuorviati un’altra volta quando l’ia si sbaglia.
Quando i sistemi che danno una forma alle cose cominciano a declinare o a essere messi in dubbio, com’è successo alla religione, al liberalismo, alla democrazia e ad altri, ci si ritrova a cercare un nuovo Dio. C’è qualcosa di particolarmente commovente nel desiderio di chiedere a ChatGpt di spiegarci un mondo in cui a volte sembra che niente sia vero. Per un’umanità inondata da un mare di soggettività, l’intelligenza artificiale rappresenta qualcosa di trascendente: la mente logica suprema che può dirci la verità.
Sottotraccia, nel racconto di Clarke sui monaci tibetani, si avverte lo stesso senso della tecnologia come un’entità che ci permette di superare le nostre semplici costrizioni mortali. Il risultato, però, è la fine di tutto. Nell’affidarsi alla tecnologia per rendere più efficiente un compito profondamente spirituale, manuale e meticoloso, i personaggi di Clarke finiscono per cancellare il loro stesso atto di fede. Qui, nel mondo reale, forse lo scopo non è incontrare Dio, ma è la tortura del provare a farlo. L’intelligenza artificiale può continuare a crescere in grandezza, potenza e capacità, ma l’assunto su cui poggia la nostra fede in lei – che, per così dire, possa avvicinarci a Dio – rischia di portarci ancora più lontano.
Tra dieci o vent’anni, l’intelligenza artificiale sarà più avanzata di oggi. Se sarò abbastanza fortunato da esserci ancora, uscirò di casa con il mio assistente digitale che mi sussurra nell’orecchio. Ci saranno delle crepe sul marciapiede. La città in cui vivo sarà ancora in costruzione. Probabilmente il traffico sarà ancora un caos, anche se le macchine si guideranno da sole. Forse mi guarderò intorno o alzerò gli occhi al cielo e il mio assistente digitale mi dirà qualcosa su ciò che vedo. Le cose, però, continueranno ad andare avanti in modo solo leggermente diverso da ora. E le stelle? A dispetto di quello che oggi ci sembra un grande cambiamento, il cielo ne sarà ancora pieno. ◆ fas
Navneet Alang è un giornalista che vive a Toronto, in Canada. Insegna alla Toronto Metropolitan university. Questo articolo è uscito sulla rivista canadese The Walrus con il titolo AI is a false god.
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it
Questo articolo è uscito sul numero 1588 di Internazionale, a pagina 92. Compra questo numero | Abbonati