L’associazione Statewatch ha fatto un uso eccellente del freedom of information act (Foia) nel Regno Unito. Il Foia – che chiamiamo così anche in Italia – è la norma che garantisce il diritto di accesso alle informazioni in possesso della pubblica amministrazione, con alcune eccezioni stabilite dalle leggi nazionali (per esempio, dati e documenti che tutelano interessi pubblici o privati). È uno strumento potente, ma poco usato, che andrebbe difeso e valorizzato.

Grazie al Foia, la Statewatch ha potuto dimostrare che nel Regno Unito esiste, letteralmente, un progetto di polizia predittiva. Si chiamava Homicide prediction project, poi ha cambiato nome in un più asettico Sharing data to improve risk assessment. Ma il cuore dell’iniziativa è lo stesso: usare i dati di centinaia di migliaia di persone per provare a prevedere chi potrebbe commettere un omicidio. Il programma è stato voluto direttamente dall’ufficio dell’ex primo ministro britannico Rishi Sunak e coinvolge il ministero della giustizia, la polizia metropolitana di Londra, quella di Manchester e il ministero dell’interno.

Secondo i documenti ottenuti dalla Statewatch, il progetto analizza informazioni di ogni tipo: dati anagrafici, contatti con la polizia (anche solo come vittime o testimoni), dati sanitari su salute mentale, dipendenze, disabilità, atti di autolesionismo. È un tentativo di costruzione di un sistema di profilazione predittiva di stato.

Non siamo ancora agli arresti preventivi in stile Minority report, ma il principio è simile. Nel film, il protagonista, interpretato da Tom Cruise, lavora per un corpo di polizia che arresta le persone prima che commettano un omicidio. Viene a sua volta accusato di un crimine che non ha ancora commesso e deve lottare contro un sistema che lo considera già colpevole.

Nel progetto britannico si costruisce un modello informatico che calcola un livello di rischio e lo applica a persone che non hanno ancora fatto nulla. Il rischio ovviamente è che siano considerate potenzialmente pericolose persone che non hanno mai commesso alcun crimine. E che probabilmente faranno parte sempre (o quasi) di gruppi specifici di persone, spesso già discriminate e in situazioni di forte disagio economico e sociale.

Anche in Italia ci sono o ci sono state iniziative simili. Nel 2021 è stato presentato alla stampa un software per la polizia locale di Caorle. Avrebbe dovuto mostrare su una mappa zone con colore differente a seconda della previsione di eventi che potevano avvenire nell’ora successiva a quella della consultazione. Secondo quanto mi hanno raccontato al comando dei vigili urbani del comune, però, l’esperimento non è mai partito.

Il comune di Trento, invece, ha partecipato a due progetti europei di ricerca chiamati Marvel e Protector. Dietro i nomi da fumetto – sarebbe interessante studiare le scelte semantiche di chi immagina questi esperimenti – si celavano sistemi di sorveglianza pervasiva che mettevano insieme video registrati da telecamere di videosorveglianza, audio raccolto da microfoni installati negli spazi pubblici e analisi automatizzate di contenuti pubblicati sui social network. L’obiettivo? Prevenire rischi per la sicurezza urbana e nei luoghi di culto. Secondo il garante della privacy, il comune non poteva trattare dati così sensibili – inclusi quelli relativi a reati, emozioni, salute e comportamenti – né aveva garantito un’adeguata informazione ai cittadini; le tecniche di anonimizzazione erano insufficienti, mancava una valutazione d’impatto sui rischi, e l’iniziativa è stata considerata una sorveglianza di massa e invasiva, che poteva limitare l’esercizio delle libertà democratiche. Così, a gennaio del 2024 il comune di Trento è stato multato e ha dovuto rinunciare al progetto.

A Venezia, invece, è attiva una stazione di controllo che si chiama smart control room: monitora dati ambientali e delle persone attraverso le celle telefoniche che triangolano le posizioni degli smartphone. I dati della smart control room si potrebbero collegare anche a quelli delle telecamere di videosorveglianza. Il sindaco Luigi Brugnaro ha dichiarato che, se fosse per lui, anche il riconoscimento facciale con intelligenza artificiale sarebbe legale e in funzione. Per ora, non lo è. Ne ho parlato in un’inchiesta dal titolo Smart controlled.

Le intelligenze artificiali – o più precisamente, i sistemi di sorveglianza automatizzati e i modelli predittivi – si possono usare per la sicurezza. Il rischio, però, è che a forza di rincorrere la prevenzione a ogni costo, si finisca per colpire libertà e diritti fondamentali: quelli delle persone più fragili o già marginalizzate ma anche quelli di tutta la cittadinanza.

È per questo che l’Ai act, la legge europea sull’intelligenza artificiale, ha cercato di porre dei limiti all’uso di queste tecnologie da parte delle forze di polizia. E non a caso proprio su questo punto ci sono state le maggiori tensioni politiche: Francia, Germania e Italia a chiedere maggiori margini di manovra per gli usi di sicurezza. Ma visto che i rischi esistono, non basta dire che si usano le tecnologie per migliorare la sicurezza.

Quando le istituzioni vogliono usare le macchine per decidere chi è pericoloso è fondamentale insistere sulla trasparenza, sul controllo democratico e sul rispetto dei diritti fondamentali. Per non ritrovarsi in una distopia fantascientifica.

Questo testo è tratto dalla newsletter Artificiale.

Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti
Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it