Le intelligenze artificiali possono aiutare la cittadinanza a comprendere meglio la politica: si possono progettare chatbot con funzione informativa sui principi della vita democratica, sulle questioni politiche, sulle reali posizioni dei politici, sui programmi elettorali e sulle soluzioni proposte dalle forze in campo. Si possono anche progettare chatbot che raccontano cosa hanno fatto davvero i politici rispetto alle loro dichiarazioni pre-elettorali, che verificano e spiegano come sono cambiate le loro posizioni negli anni. Si possono progettare intelligenze artificiali che aggiornano la cittadinanza sugli sviluppi delle politiche di loro interesse, eliminando tutto il rumore di fondo propagandistico, gli slogan, le polemichette del momento.
Le intelligenze artificiali potrebbero essere utilizzate per raccogliere istanze dal basso, per analizzarle, per aiutare le persone a proporre leggi in maniera strutturata, per favorire e arricchire la qualità del dibattito online e offline, per favorire pratiche di raggiungimento del consenso e del compromesso al rialzo.
In sostanza, le intelligenze artificiali potrebbero svolgere un ruolo importante in tutte le fasi del processo decisionale politico, migliorandole: l’identificazione dei problemi, la formulazione delle possibili soluzioni con il relativo dibattito, l’adozione delle soluzioni sotto forma di leggi e regolamenti, l’applicazione e infine la valutazione del percorso fatto.
Potendo elaborare grandi quantità di dati, le intelligenze artificiali sono uno strumento al servizio dei decisori politici per identificare le questioni sociali e approfondire la loro conoscenza, arricchendo le competenze delle assemblee rappresentative. Queste ultime potrebbero essere collegate direttamente con altre forme assembleari cittadine: le nuove tecnologie di ia, insomma, potrebbero aiutarci a ripensare il modo in cui viene gestita la cosa pubblica.
Queste idee non sono di un’ingenua tecno-ottimista o di un addetto marketing di una grande azienda della Silicon Valley che sviluppa intelligenze artificiali: sono esplicitamente citate in uno studio dell’Unesco dedicato alle pratiche politiche ed elettive in un ecosistema digitale. Altre idee le ho immaginate leggendo il lavoro dell’Unesco.
Lo studio viene esplicitamente richiamato anche dalla ricerca del parlamento europeo del 2023 sulle intelligenze artificiali, dove si legge chiaramente che “le intelligenze artificiali rappresentano un’opportunità per migliorare il processo democratico nelle nostre società”. Vengono addirittura definite “catalizzatrici di democrazia”.
L’avevi mai letto da qualche parte? Avevi mai trovato un titolo e un inizio come questo negli articoli che parlano di intelligenze artificiali? È vero: assomiglia a uno di quei titoli acchiappa-clic che si leggono a volte. In effetti ha anche quella funzione. Ma il motivo per cui sembra davvero tanto acchiappa-clic è che prefigura una storia esattamente all’opposto di quella che viene raccontata abitualmente. Queste opportunità vengono trascurate o addirittura del tutto omesse perché proiettare le ombre della futura tragedia che verrà è, secondo qualcuno, più efficace.
Una delle visioni comuni sulle intelligenze artificiali generative, infatti, è proprio che comportino enormi rischi per le nostre democrazie. Messa così, la questione sembra rimandare a una frase fatta, a un contenitore vuoto. E sembra nuovamente acchiappa-clic. Cosa vuol dire “rischi per le nostre democrazie”? E poi, che cos’è veramente a rischio? Quali persone possono rappresentare un rischio?
Nel 2019, sul Yale journal of law and technology è uscito un lungo saggio dal titolo Artificial intelligence: risks to privacy and democracy, firmato da Karl Manheim e Lyric Kaplan.
Nel saggio, gli autori sottolineano che le intelligenze artificiali possono essere utilizzate, per esempio, per interferire con i processi elettorali, per tentare di manipolare le opinioni delle persone – diventano, cioè, strumenti di propaganda –, per l’hacking ostile, per inviare contenuti personalizzati sulla base dei dati raccolti, per occupare il discorso pubblico e influenzarlo.
Manheim e Kaplan, però, identificano chiaramente il vero problema: “Ad approfittare, economicamente o ideologicamente, dell’erosione dei diritti di solito è chi sfrutta le possibilità delle intelligenze artificiali in un contesto di regolamenti deboli”.
Senza minimizzare i rischi, allora, mettiamo insieme le valutazioni di Manheim e Kaplan, lo studio Unesco, la relazione del parlamento europeo: quel che emerge è una verità complessa, sfaccettata e molto più profonda di quella semplificata dalle regolette, dai bollini che certificano i contenuti fatti in maniera sintetica, dalle banalizzazioni sull’algoetica: sono tutte considerazioni che spostano sempre il problema dall’umano alla tecnologia. E che non prendono mai in considerazione il punto di partenza: la gestione del potere.
Il problema è che ci sono persone che si trovano in posizioni di vantaggio; queste posizioni di vantaggio gli consentono di sfruttare l’altro per amplificare i propri privilegi, di trarre il meglio da tutto, incluse le intelligenze artificiali, di estrarre valore per se stesse e per i pochissimi che fanno parte delle loro cerchie.
Forse è questo che dovremmo regolamentare. Sicuramente è questo che dobbiamo iniziare a raccontare
Questo testo è tratto dalla newsletter Artificiale.
Iscriviti a Artificiale |
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Iscriviti a Artificiale
|
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it