Grok è l’intelligenza artificiale generativa sviluppata da una delle aziende di Elon Musk ed è quasi completamente senza censure. Significa che può produrre contenuti che verrebbero ritenuti scomodi o poco opportuni da chi sviluppa altri strumenti come ChatGpt o Gemini. Musk è ossessionato da una versione molto personale dell’idea di libertà di parola. Potremmo riassumerla così: si deve poter dire tutto, ma tutto ciò che piace a Musk deve avere più visibilità.
Nell’era delle piattaforme e degli algoritmi, in effetti, una vecchia battuta diventata anche il titolo di un saggio dice: “free speech is not free reach”. Il gioco di parole che si basa sul doppio significato di free (vuol dire sia “libero” sia “gratuito”) è intraducibile. Si può rendere in italiano così: la libertà di espressione non garantisce la diffusione. Ci possiamo esprimere liberamente ma non è affatto detto che quel che diciamo raggiunga un vasto pubblico. Per questo Musk volle per sé, fin dal 2023, un trattamento speciale per aumentare la visibilità dei propri tweet (all’epoca si chiamavano ancora così).
Prendere in ostaggio il concetto di libertà di espressione è una strategia che vediamo svilupparsi da anni e che funziona meglio se, tutto attorno, c’è il caos. In questa generazione di caos si inserisce Grok.
Anche la nuova versione text-to-imagine di Grok, quella che genera immagini sintetiche a partire da comandi testuali, è quasi completamente senza censure. Dal 14 agosto è a disposizione inclusa nell’abbonamento a X, la piattaforma social di Musk.
C’è chi ha generato l’immagine iperrealistica di Trump che accarezza la pancia di una donna incinta. La donna ricorda vagamente Kamala Harris. C’è chi si cimenta con Obama o Bush che fanno uso di droghe o con Harris che punta una pistola.
La possibilità di creare queste immagini a basso costo dovrebbe preoccuparci? È davvero un problema in termini di manipolazione della realtà? La risposta è complessa. Di certo a persone come Musk e Trump questo caos fa comodo. Anche perché, a complicare la situazione, c’è il modo in cui questa incertezza sui contenuti viene cavalcata da chi ha interessi a intorbidire le acque della conversazione pubblica.
Il 7 agosto 2024 Donald Trump ha commentato sul social network Truth – non dimentichiamo che truth significa “verità” – una foto che mostra una folla a Detroit in attesa di un aeroplano con a bordo Kamala Harris. Trump ha detto che quella foto era falsa, creata con un’ia, che all’aeroporto non c’era nessuno, che Harris è una truffatrice e una bugiarda, che dovrebbe essere esclusa dalle elezioni perché “la creazione di un’immagine falsa è interferenza elettorale”. Eppure l’immagine era vera, e ce ne sono molte altre, come racconta la NPR. Hany Farid, professore all’università della California, ha verificato quella specifica immagine e non ha trovato nulla di artefatto. “Questo è un esempio del fatto che la sola esistenza dei deepfake e delle intelligenze artificiali generative consente alle persone di negare la realtà”, ha detto Farid all’NPR. “Non ti piace il fatto che da Harris ci fosse una simile folla? Nessun problema. Le foto sono false. I video sono falsi. Tutto è falso”.
Ma siamo davvero sicuri che questo problema sia legato alle intelligenze artificiali generative? Facciamo un viaggio nel tempo e ritorniamo alla presidenza Trump. L’11 gennaio 2017 l’allora presidente degli Stati Uniti rispose a una domanda di un giornalista della CNN dicendo, letteralmente “I’m not going to give you a question. You are fake news” (“Non risponderò. Voi siete fake news”). Ancora una volta, allora, dobbiamo essere lucidi nel valutare il problema: non è meramente tecnologico. Trump fece un uso spregiudicato di un’etichetta che, nel tempo, ha mostrato tutti i suoi problemi: fake news non significa, letteralmente, niente. Tutti possono essere la fake news di qualcun altro.
Nel 2018 cercavo di demistificare il fenomeno delle fake news. C’è anche un video di una mia lezione per giornalisti in cui mostro come si possa costruire un piano editoriale ad arte per screditare chiunque, persino Luke Skywalker nell’universo narrativo di Star Wars, se abbiamo interesse a farlo. Oltre a criticare l’etichetta fake news proponevo di concentrarci, anziché sui falsi, su tutto ciò che è autentico e che si può provare e dimostrare. Credo che valga ancora oggi: in effetti è l’essenza stessa del lavoro giornalistico che deve sempre basarsi su fonti indipendenti e verificabili da terzi. Però non possiamo pretendere che tutte le persone agiscano come dovrebbe agire chi fa buon giornalismo.
Uno dei possibili anticorpi rispetto a questo enorme problema, apparentemente senza soluzione, è la diffusione costante di competenze relative al mondo dei media e delle intelligenze artificiali.
Qualche tempo fa ho preparato una guida alla manipolazione delle immagini da quando esiste la possibilità di documentare la realtà con fotografie. Dobbiamo ricordarci sempre più spesso – e ricordarlo anche alle persone che hanno meno consapevolezza di questi fenomeni – che il valore di verità di una singola foto o di un singolo video o audio è prossimo allo zero da sempre. Che è sempre necessario un processo di verifica, una contestualizzazione, altre fonti indipendenti. Oggi ci sembra di non poter, letteralmente, credere ai nostri occhi. In realtà non avremmo dovuto credere a una singola fonte nemmeno prima: una foto è alterata dal punto di vista di chi la scatta, non è la verità. Un video, un audio sono facilmente manipolabili.
In gergo tecnico, questo approccio si chiama prebunking. Significa, cioè, abilitare quante più persone possibili a valutare e verificare le fonti conoscendo a monte le possibilità di inganni e di mistificazioni. “Gli studi dimostrano che tendiamo a dare credito alle fonti che confermano i nostri pregiudizi”, ha spiegato il ricercatore Walter Quattrociocchi al Sole 24 ore. “Smentire le fonti non funziona, perché le persone rimangono ancorate ai propri schemi mentali anche di fronte all’evidenza dei fatti”. Non resta che “fornire gli strumenti per comprendere i meccanismi della disinformazione e acquisire consapevolezza sui pregiudizi cognitivi che influenzano la ricezione delle notizie”.
È un’operazione lunga? Indubbiamente. Ha garanzie di risultati? No. Esistono altri metodi possibili per ricostruire un terreno comune, solido, di fatti verificabili? Probabilmente no. A meno di non volere regole speciali che stabiliscano cos’è vero e deve essere diffuso e cosa, invece, non deve assolutamente raggiungere un pubblico ampio. A volte la tentazione di fare richieste simili, nel mondo del digitale e con le intelligenze artificiali, arriva anche da ambienti che si presumono progressisti. Dovremmo ricordarci, nel caso ci venisse il dubbio che possa essere una buona idea, che è proprio il tipo di mondo che sognano i Musk e i Trump.
Questo testo è tratto dalla newsletter Artificiale.
Iscriviti a Artificiale |
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Iscriviti a Artificiale
|
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it