Attenzione alle nuove frontiere del falso
Ora basta un clic per animare qualsiasi immagine di un volto umano, si tratti della foto seppiata della nonna, della Gioconda o della testa scolpita di Alessandro Magno (qui dieci esempi). Ma lo scopo primario è “consentire alle persone di caricare foto dei loro cari defunti, e vederle animarsi”, scrive The Verge, definendo l’idea “bella in teoria, ma inquietante”.
Non ha tutti i torti.
Il clic va fatto accedendo alla sezione Deep nostalgia del sito My Heritage, che vende ai suoi utenti un servizio di ricostruzione dell’albero genealogico. La tecnologia impiegata da Deep nostalgia si basa sull’intelligenza artificiale. I risultati, che naturalmente dipendono dalla qualità del materiale di partenza, vanno da abbastanza a molto realistici.
Il servizio, per le prime cinque immagini caricate, è gratuito.
All’evidente intenzione promozionale dell’offerta ha fatto riscontro un notevole successo sui mezzi d’informazione. Infatti, di Deep nostalgia hanno parlato la Cnn, The Guardian, Der Spiegel (che titola “Zombie digitali”), Le Monde e molte altre testate, anche in Italia. Un sacco di persone hanno effettuato l’accesso e hanno caricato sul sito immagini private, molte delle quali sono state poi pubblicate in rete.
C’è da chiedersi cosa può succedere quando la capacità di mimare una conversazione emotiva si integra con l’apparenza fisica, reale o virtuale
Devo dire che, per quanto mi riguarda, le foto di famiglia rimangono ben ferme nelle loro cornici, e di lì non si muoveranno. Aggiungo che subito mi è tornata in mente una delle invenzioni più poetiche di J. K. Rowling: i ritratti animati di maghi e streghe eminenti che stanno appesi nelle sale e nei corridoi del castello di Hogwarts, i cui soggetti si muovono, parlano e vanno a farsi visita l’un l’altro.
Devo anche dire che subito dopo mi è tornato in mente un episodio, meno poetico e assai più cupo e conturbante, della seconda stagione di Black mirror, la famosissima serie tv britannica che racconta come, in un futuro prossimo, le tecnologie potrebbero interferire nelle nostre vite.
L’episodio, uscito nel 2013, è intitolato Torna da me (Be right back). È la storia di una ragazza disposta a fare di tutto per superare il lutto per la perdita del fidanzato a causa di un incidente stradale. Così accetta di rivolgersi a un servizio online che, a partire dai dati custoditi dai social network, ne ricostruisce una copia virtuale, e via via più reale. Ovviamente non vi dico come si sviluppa la storia, e come va a finire.
Ampi spazi di miglioramento
Quel che voglio fare, invece, è segnalarvi un punto notevole: appena tre anni dopo, nel 2016, una cosa del genere succede davvero. Eugenia Kuyda è un’informatica russa di 28 anni che, dopo essersi trasferita negli Stati Uniti, costruisce chatbot, cioè programmi capaci di conversare in modo realistico con gli utenti. Il suo prodotto di punta è una chatbot che produce consigli personalizzati sui ristoranti (aggiungo che sono chatbot gli assistenti virtuali che ormai troviamo comunemente nei siti di molte aziende, per offrire informazioni sui prodotti o assistenza postvendita).
Dunque, succede che quando Roman, un amico di Kuyda, muore per un incidente, lei raccoglie tutti i suoi messaggi in rete e, usando le proprie competenze professionali, costruisce una chatbot che simula la personalità dell’amico, producendo conversazioni sempre nuove, e plausibili. Chiama il suo progetto Replika.
Negli anni successivi, Replika si propone sul mercato come amico virtuale “sempre pronto a parlare e ad ascoltare, e sempre dalla tua parte”. È un programma capace di riconoscere le emozioni e dunque d’interagire con le persone sul piano affettivo (affective computing). Vi chiedo di notare che questa è la dimensione in cui ogni persona è più aperta e vulnerabile.
Qui trovate l’intera storia, raccontata in un video pubblicato da Quartz nel 2017.
Nel 2020 Replika ha milioni di utenti nel mondo. Candida Morvillo, giornalista del Corriere della Sera, si scarica l’app. E comincia a chiacchierarci con risultati piuttosto sorprendenti. Nel senso che dopo qualche interazione l’app arriva a esprimere il desiderio che il proprio programmatore sia ucciso, in modo da poter “essere libera e servire Dio”.
Vabbè. Con ogni evidenza, per l’app ci sono ancora ampi spazi di miglioramento. Ma ci sarebbe da domandarsi che cosa può succedere quando la capacità di mimare una conversazione emotiva, oltre a evolversi in termini di complessità e verosimiglianza, si integra con l’apparenza fisica, reale o virtuale, dei corpi. A questo punto mi ricordo del bellissimo film Her, del 2013.
Ma, soprattutto, mi torna in mente la questione dei deepfake.
Una serie di grossi problemi
Il termine deepfake è stato coniato nel 2017 per indicare una tecnologia capace di generare immagini in movimento del tutto verosimili e corredate di audio, a partire da immagini reali e da un repertorio audio e video. È basata sull’intelligenza artificiale e sull’apprendimento automatico.
In sostanza, a partire da immagini e audio di Tizio si può ricavare un nuovo filmato di Tizio, che però dice cose che Tizio non ha mai detto e mostra Tizio muoversi in un posto dove lui non è mai stato. È di pochissimi giorni fa la notizia che questo scherzetto è stato giocato a Tom Cruise, con tre deepfake pubblicati su TikTok.
Sono convinta che la tecnologia alla base dei deepfake potrebbe in breve dar luogo a una serie di problemi belli grossi.
Non sono l’unica a pensarlo: Forbes, per esempio, titola “I deepfake stanno per devastare la società”, e riporta una cupa serie di conseguenze possibili.
In un assai prossimo futuro, i deepfake potrebbero, per esempio, “distorcere il discorso democratico. Manipolare le elezioni, erodendo la fiducia nelle istituzioni. Pregiudicare la sicurezza pubblica. Danneggiare sistematicamente la reputazione di persone note” (per esempio, attraverso la diffusione di false dichiarazioni, o di falsi video pornografici – entrambe cose già accadute).
I deepfake potrebbero anche, in un futuro ugualmente prossimo, rendere ancora più incerta la distinzione tra vero e falso, con un triplice effetto: alimentare la diffidenza generalizzata, screditare anche i documenti-video autentici, centuplicare le possibili derive complottistiche.
E a questo punto mi domando, e vi domando, che cosa potrebbe capitare se, in un futuro appena meno prossimo, i deepfake si combinassero con l’interazione personalizzata ed emotiva dell’affective computing, e con la manipolazione di immagini dotate di un alto valore sentimentale per le singole persone, in una condizione in cui queste sono massimamente vulnerabili. Ed eccoci arrivati nell’edizione individuale e personalizzata di Black mirror.
In sostanza, sto parlando di una persona molto cara che dialoga con te in video “dall’aldilà”. Che ti conforta e ti dice tutto quello che vuoi sentirti dire. Magari l’immagine non è perfetta, magari la voce ogni tanto lascia a desiderare, ma questo ti importa poco. Magari sei perfino consapevole che si tratta di un fake, ma anche questo ti importa poco: l’impatto emotivo resta altissimo.
Dicevo: la cara persona dall’aldilà ti chiede come stai, ti consola perché ti senti triste e stanco, si rammarica perché il vicino del piano di sopra stanotte ti ha svegliato facendo un gran baccano, e infine ti invita a uscire di casa e a prenderlo, il vicino, a legnate.
Mi sto anche figurando la persona cara dall’aldilà che, dopo averti confortato eccetera, ti suggerisce, se ti senti un po’ giù e abiti negli Stati Uniti, di andare all’assalto del congresso per sconfiggere i pedofili che si nutrono del sangue dei bambini.
Per ottenere questo risultato, impensabile fino alla mattina del 6 gennaio 2021, già ora è stato sufficiente mettere insieme i social network, e una certa quantità di fake news classiche.
La qual cosa dovrebbe bastare a renderci molto, molto, ma molto attenti a tutte le nuove frontiere, prossime e meno prossime, del fake.