Con i suoi studi, Geoffrey Hinton ha contribuito, fin dagli anni ottanta, a rendere possibili le intelligenze artificiali generative che possiamo usare oggi. Il suo lavoro, insieme a quello di John Hopfield, è stato premiato con il Nobel nel 2024.

Insieme al premio sono ritornate a galla alcune delle preoccupazioni espresse dallo stesso Hinton in un’intervista rilasciata al New York Times poco dopo che ChatGPT è stato reso disponibile al grande pubblico. A margine di quell’occasione, Hinton ha chiarito su X di essersi dimesso dal suo ruolo in Google per avere la possibilità di “parlare dei pericoli delle ia” e non per criticare Google in particolare.

Fra le preoccupazioni dell’informatico e psicologo cognitivo, quella più gettonata e più facilmente vendibile è l’idea del rischio esistenziale. Funziona più o meno così: le macchine diventeranno più intelligenti degli esseri umani, prenderanno il controllo, ci annienteranno. È una profezia molto cara alle stesse persone che sviluppano le intelligenze artificiali e fanno soldi nel processo: probabilmente perché l’idea di una super intelligenza che controlla tutto è affascinante e, in qualche modo, vende di più, attirando l’attenzione. Poco importa che lo stesso Hinton abbia poi ammesso: “Magari mi sbaglio sull’idea di un’intelligenza digitale che ci supererà”.

Un’altra preoccupazione che fa molta presa anche negli ambienti progressisti – gli stessi ossessionati dall’idea di poter regolamentare il fenomeno delle cosiddette fake news, spesso senza accurate riflessioni sui rischi che comporterebbe una simile regolamentazione – è l’uso delle ia come arma per la creazione di testi, immagini, video fake che potenzierebbero il rischio della manipolazione di massa. Abbiamo visto, però, che quando questa presunta minaccia manipolatoria assume la forma concreta e reale di deepfake che truffano le persone si fa ben poco per rimediare.

Poi c’è la perdita dei posti di lavoro, che in realtà era un fenomeno già molto chiaro fin dagli anni sessanta del secolo scorso, come dimostra la lettera Triple revolution. È una preoccupazione che nelle istituzioni riecheggia quando parlano associazioni di categoria o quando arriva l’ennesima stima da qualche esperto a Davos o dalla Goldman Sachs. Ma poi sparisce dalla conversazione perché, probabilmente, richiederebbe soluzioni radicali come la presa in considerazione di un reddito di base universale o l’introduzione di una tassa per i super ricchi.

Però c’è un pezzo dell’intervista che, curiosamente, non si vede praticamente mai citato. È questo, in cui, mentre si parla di soldati robot – non necessariamente antropomorfi alla Terminator - Hinton afferma: “Possono esistere cose in grado di muoversi su terreni accidentati e sparare alle persone. E la cosa peggiore dei soldati robot è che se un paese grande vuole invadere un paese piccolo, deve preoccuparsi un po’ di quanti marines [nell’originale Hinton usa proprio questa parola, per due volte, ndr] moriranno. Ma se inviano soldati robot, invece di preoccuparsi di quanti marines moriranno, le persone che finanziano i politici diranno: fantastico. E così manderanno queste armi costosissime, che poi si esauriranno [e quindi dovranno essere rimpiazzate generando profitto, ndr]. Il comparto militare-industriale adorerà i soldati robot”.

Nella puntata del podcast The Daily in cui si sente chiaramente questo passaggio in lingua originale, la conduttrice del podcast Sabrina Tavernise osserva che “è come con i droni. Le persone che uccidono stanno sedute in un ufficio, con un controllo da remoto, molto lontane dalle persone che muoiono”. Ma poi il giornalista Cade Metz, autore dell’intervista, riporta tutto al rischio esistenziale dicendo che in realtà “è un passo oltre. Non sono più le persone a controllare le macchine. Sono le macchine che prendono decisioni per conto loro, in maniera incrementale. È di questo che Geoffrey è preoccupato”.

In effetti Hinton lo aggiunge: “E poi c’è questa specie di incubo esistenziale”, dice, “in cui questa roba diventa molto più responsabile e prende il sopravvento”. Così, l’ipotetico incubo esistenziale futuro cancella quel che viene prima. Forse accade perché il rischio esistenziale è più semplice da raccontare. Forse accade perché quella preoccupazione riporta le cose nelle mani degli umani e, in particolare, degli umani potenti: quelli con il potere politico, quelli che controllano l’industria delle armi.

È una riflessione più scomoda, perché implica che il problema non è un’ia che sfugge al controllo, ma il modo in cui gli esseri umani scelgono di usarla. Sarà anche una prospettiva meno attraente per il grande pubblico, ma è forse la più urgente da affrontare, perché tocca questioni di etica, geopolitica e responsabilità collettiva che non possiamo più ignorare. Anche perché i sistemi di armi autonome con ia integrate non sono il futuro che verrà: sono già realtà e sono usate, per esempio, da Israele per il massacro a Gaza.

Questo testo è tratto dalla newsletter Artificiale.

Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti
Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it