Negli ultimi mesi molte persone hanno lanciato l’allarme su un presunto rischio di distruzione dell’umanità causato da forme superintelligenti d’intelligenza artificiale (ia). Secondo Sam Altman, amministratore delegato della Open Ai, questa tecnologia potrebbe “cancellarci tutti”, mentre il pioniere dell’ia Geoffrey Hinton si è dimesso da Google perché rappresenterebbe una minaccia per l’umanità. Anche il Center for ai safety ha parlato di possibile rischio d’estinzione.
Sono voci che fanno paura, ma non perché siano vere. Fanno paura perché alterano in maniera decisiva il dibattito sulle conseguenze dell’intelligenza artificiale e su un suo sviluppo responsabile.
L’idea di un’ia che sviluppi un’intelligenza sovrumana, minacciando l’umanità, è presente in molti film e ben radicata nell’immaginario collettivo. La novità è che oggi si è insinuata anche nella sfera politica e normativa. E questo è preoccupante, perché le prove a sostegno delle tesi allarmistiche sono praticamente inesistenti e non reggono a un esame attento.
Proprietà emergenti
Le affermazioni secondo cui i modelli linguistici di grandi dimensioni stiano sviluppando delle cosiddette proprietà emergenti (capacità per le quali non erano stati addestrati) si concentrano sulle funzioni impreviste, che in realtà sono spiegabili. Per esempio, quando l’amministratore delegato della Alphabet Sundar Pichai ha affermato che Bard, il chatbot di Google, ha riposto a sollecitazioni in bengalese pur non essendo stato addestrato a farlo, l’ex dipendente Margaret Mitchell ha spiegato che nello sviluppo di Bard era prevista l’assimilazione di elementi del predecessore Palm, dotato di un database in bengalese.
È l’ennesima dimostrazione del fatto che i modelli d’intelligenza artificiale svolgono solo i compiti per i quali sono stati programmati. Il tema delle proprietà emergenti è usato per sviare le richieste di trasparenza e per cancellare il dibattito sulle responsabilità degli sviluppatori.
Non a caso le grida d’allarme più forti sulla distruzione dell’umanità vengono proprio dalla Silicon valley. Pur essendo apparentemente in contrasto con l’interesse dei giganti dell’informatica a investire nell’ia, in realtà li tutelano spostando l’attenzione dalle loro azioni concrete.
Quando si afferma che l’intelligenza artificiale è in grado di sviluppare un’intelligenza propria, si dirotta il dibattito dalle responsabilità attuali delle aziende a quelle future della tecnologia. Questo crea una sensazione d’ineluttabilità, facendoci credere che stiamo assistendo a un’evoluzione autonoma dell’ia invece che a decisioni consapevoli prese da persone in carne e ossa.
Non dovremmo quindi soffermarci solo su ciò che viene detto, ma anche su chi parla. Mentre Altman ha ricevuto un’accoglienza calorosa in Europa, le proteste di chi subisce gli effetti negativi dell’ia passano in secondo piano. È sintomatico di ciò che la studiosa Kate Crawford definisce il “problema del maschio bianco” dell’intelligenza artificiale: la paura della distruzione dell’umanità è sentita soprattutto da uomini bianchi in posizioni di potere, che hanno minori probabilità di subire i danni dell’ia ma maggiori di causarli.
È un momento cruciale, perché i governi sono chiamati a regolamentare in modo efficace l’intelligenza artificiale. Contrastare le voci sulla superintelligenza e sul rischio esistenziale è quindi importante per evitare che il dibattito si concentri su ciò che interessa ai giganti dell’informatica invece che sulle voci delle comunità colpite, e sugli spauracchi immaginari invece che sugli effetti concreti. ◆ sdf
Mhairi Aitken è ricercatrice di etica presso l’istituto Alan Turing, nel Regno Unito.
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it
Questo articolo è uscito sul numero 1520 di Internazionale, a pagina 86. Compra questo numero | Abbonati