Il responsabile dei sistemi informatici di un’azienda che gestisce servizi di cloud ha scritto alcuni commenti a proposito dei due articoli in cui la newsletter Artificiale ha raccontato le truffe informatiche basate su deepfake. I suoi commenti sono utili per allargare il discorso che abbiamo cominciato. “Non parlerei di scatole cinesi quando stai descrivendo la normalissima struttura decentralizzata del web”, scrive Manuel. Il riferimento è al titolo del secondo pezzo, Il sistema di scatole cinesi dietro le truffe di massa.

Secondo Manuel – e in effetti anche secondo altri informatici con cui ho parlato e secondo la mia personale esperienza – è “assolutamente normale” che si registri il dominio di un sito presso un fornitore che offre tariffe migliori. Poi si acquista il name server presso un altro fornitore. Possibilmente uno che offra gratuitamente una una rete di server affidabile per velocizzare la navigazione (cdn, cioè content delivery network) e che argini malware e simili. Infine si sceglie un fornitore di servizi cloud che abbia prezzi vantaggiosi per ospitare i contenuti del sito (hosting). Il name server traduce l’indirizzo che digitiamo quando navighiamo su internet in ip, gli indirizzi scritti in forma numerica a cui si può trovare il sito. La cdn è una rete di server che velocizza la navigazione.

Botnet e malware sono, invece, strumenti potenzialmente dannosi per un sito e per chi lo visita. L’hosting, infine, è il servizio che ospita effettivamente i contenuti di un sito. Su quelli economici e affidabili come Ovh, che avevamo citato negli articoli in questione, ci finiscono anche i siti di attività dubbie o illegali, continua Manuel. “In ogni caso – conclude – non darei responsabilità ai fornitori, perché altrimenti si rischia di innescare la temutissima censura”.

Insomma: l’infrastruttura stessa del web consente anche truffe. Ma lo stesso si può dire per il denaro o per la telefonia o per l’uso della parola scritta o orale. Questo, probabilmente, è il punto centrale di tutta la questione e ci costringe a riflettere non solo sulle intelligenze artificiali che vengono usate per creare deepfake, ma sull’intera struttura della rete: l’anonimato che la rete garantisce se si sa come fare non è necessariamente un male. Pensiamo, per esempio, alla necessità di nascondere la propria identità per gli attivisti di regimi e dittature.

Ecco perché, nel chiedere regole certe, bisognerebbe concentrarsi prima di tutto su quelle parti della rete in cui il contenuto-truffa si può davvero fermare con meno effetti collaterali e farsi le domande giuste. Proviamo a risalire la catena delle responsabilità, che sono sempre umane. Si può impedire a monte la creazione di un deepfake? Verosimilmente no, a meno di non pretendere l’abbandono totale delle tecnologie di intelligenza artificiale generativa. Non solo: anche se si abbandonassero, ci sarebbe chi avrebbe accesso a queste tecnologie, magari segretamente.

Qualcuno potrebbe ipotizzare soluzioni basate sulla protezione delle identità personali ma sembrano davvero molto complesse da applicare, soprattutto perché molti strumenti possono essere fatti girare su un computer non connesso in rete. Allora si può impedire il caricamento online di un deepfake a priori? Probabilmente no, a meno di non imporre una censura preventiva su tutto quel che finisce in rete: ci sono persone a cui questo scenario piacerebbe, ma se ci si pensa bene è un’ipotesi che avrebbe conseguenze tremende per la libertà di espressione – non quella mistificata e presa in ostaggio da Elon Musk, quella vera. E poi, a quale autorità affideremmo volentieri questo controllo?

Si può impedire o ridurre drasticamente la diffusione dei deepfake o dei contenuti in generale. Purtroppo sappiamo che si può fare e che viene fatto: l’abbiamo visto e lo vediamo quotidianamente quando ci accorgiamo che alcuni temi su certe piattaforme social vengono bloccati limitandone la visibilità.

Abbiamo citato più volte il caso di Gaza e della Palestina, ma accade anche per altre tematiche. Per esempio, l’educazione sessuale. Anche in questo caso, lo scenario non è affatto piacevole e lo stiamo già subendo senza trasparenza e senza sapere a quali autorità appellarsi. Infine, si può impedire che si paghino pubblicità con questi contenuti per aumentarne la diffusione? Questo, probabilmente, è il filtro più importante che si può mettere.

Non è un filtro esente da problemi ma ne ha meno degli altri che abbiamo visto. Le piattaforme potrebbero, semplicemente, decidere di rifiutare a priori il pagamento di qualunque contenuto che mostri le fattezze di una persona senza che questa si sia correttamente identificata e abbia dato l’autorizzazione all’uso della propria immagine. Come abbiamo raccontato, il filtro preventivo è già in funzione su tutte le campagne a pagamento che girano, per esempio, sulle piattaforme Meta o su YouTube. Ma rifiutare i pagamenti conviene?

Questo articolo è tratto dalla newsletter Artificiale.

Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti
Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it