Su Instagram e Facebook, i due social network della Meta, è stata introdotta ufficialmente, anche in Italia, l’etichetta “Creato con ia”. La funzione, per il momento, è attiva solo per chi usa le app della Meta sul proprio telefono. Tutte le volte che si prova a caricare su uno dei due social un contenuto visivo – immagini o video o reel, video brevi in formato verticale – si ha la possibilità di dichiarare se sono stati creati utilizzando un’intelligenza artificiale generativa. Il risultato è che quel contenuto verrà pubblicato con una breve didascalia. “Creato con ia”, appunto.
Questa possibilità diventa, almeno in teoria, un obbligo in alcuni casi. “Meta”, si legge nella spiegazione che è stata pubblicata dal centro assistenza dell’azienda, “richiede di etichettare i contenuti che condividi e che presentano video fotorealistici o audio reali che sono stati generati o alterati digitalmente, anche con l’ia. Questo significa che, se questo tipo di contenuto è stato creato o modificato con uno strumento di creazione digitale o di ia, devi etichettarlo prima di condividerlo”.
La prima stranezza che salta all’occhio è che in queste istruzioni un po’ contorte si parla anche di modifiche con strumenti di creazione digitale, non necessariamente di intelligenze artificiali.
Nella guida ci sono alcuni esempi di contenuti che dovrebbero essere etichettati se generati con ia:
- un video di un gruppo di persone in giro per un mercatino all’aperto che appare realistico
- un file audio di due persone che parlano
- una canzone creata con una voce generata dall’ia
- un reel con un voiceover realistico generato dall’ia
Invece, non hanno bisogno di etichette, sempre secondo la Meta
- un video di un paesaggio all’aperto, creato in uno stile che ricorda un cartone animato
- un video che è stato modificato solo con piccoli ridimensionamenti e tagli
Una nota afferma anche “potresti incorrere in sanzioni nel caso in cui il contenuto non sia etichettato come richiesto”. Non è chiaro quali siano queste sanzioni: al momento non sono previste nei termini e condizioni d’uso della piattaforma (che, per quanto noiosi, andrebbero sempre letti).
Anche su YouTube c’è la medesima richiesta rivolta a chi crea video. E anche nella guida di YouTube si parla di sanzioni, “tra cui la rimozione dei contenuti o la sospensione dal Programma partner di YouTube”, cioè dal programma che consente a chi crea video di guadagnare attraverso la pubblicità. “Incoraggiamo l’uso innovativo e responsabile degli strumenti di generazione o editing dei contenuti da parte dei creator”, dice la guida. “Allo stesso tempo, ci rendiamo conto che gli spettatori vogliono sapere se ciò che stanno guardando o ascoltando è reale”.
Il testo della guida si addentra in terreni scivolosi: “Se un video viene alterato in modo significativo o generato sinteticamente per sembrare realistico, ma gli spettatori pensano che sia reale, si crea una situazione fuorviante”, si legge ancora.
Un’iniziativa identica si trova anche su TikTok. In questo caso, sulla piattaforma si vieta esplicitamente di pubblicare contenuti generati da ia con “un personaggio pubblico se utilizzato per appoggi politici o commerciali” e “un personaggio privato”
Tutte le piattaforme, inoltre, tentano di attribuire l’etichetta “generato con ia” in maniera automatica se rilevano “segnali standard di settore”. La bollinatura, dunque, in alcuni casi, può avvenire in maniera automatica.
Se pensiamo alla facilità con cui immagini e video sintetiche vengono alterate e con cui contenuti di qualsiasi genere si possono diffondere agevolmente sul web, se pensiamo agli errori che può commettere una macchina nella valutazione di un contenuto, queste operazioni di bollinatura hanno la parvenza di una toppa messa un po’ goffamente per risolvere un problema reale e complesso. O peggio.
L’etichetta, poi, viaggia in maniera completamente separata dal contenuto. In un mondo in cui possiamo disaccoppiare una foto dalla sua didascalia, l’unico modo per marchiare indelebilmente un contenuto fake è un’enorme sovraimpressione non rimovibile che renda impossibile la diffusione del contenuto stesso senza l’avvertenza. Ci vuole una gigantesca scritta tipo “immagine sintetica generate con intelligenza artificiale generativa. Non rappresenta la realtà”. Diversamente, chiunque sarà libero di riprodurre quel contenuto senza l’etichetta e riproporlo altrove.
I deepfake sono sicuramente un problema, così come la possibilità di creare dei cloni digitali – come il mio – e usarli a piacimento. Ma un’etichetta che separa nettamente in due le “immagini ia” da quelle “non ia” serve davvero? O rischia di alimentare la sensazione ingenua e falsa che tutto ciò che non è ia sia allora autentico e certificato?
Le alterazioni di video o materiale visivo esistono da quando esiste la possibilità tecnica di realizzare questi contenuti. Non solo: la manipolazione di un contenuto visivo può avvenire anche senza alcun tipo di postproduzione. Basta rimuovere qualcosa da un’inquadratura, cambiare il punto di vista, rimuovere i cadaveri da una scena di guerra – come si pensa sia stato fatto per scattare la foto dell’autostrada della morte durante la prima guerra del Golfo –, mostrare cadaveri fuori contesto – come venne fatto a Timisoara. Cosa vuol dire, allora, “alterare un video in modo significativo”? Il montaggio stesso non è forse l’alterazione di un video?
Soluzioni? Difficile trovarne. Diciamo che avremmo bisogno di parlarne di più; di non lasciarle in mano a un gruppetto di potenti aziende private che hanno anche le capacità di fare forti pressioni sui decisori politici; di non cedere a tentazioni censorie che potrebbero avere conseguenze indesiderate molto più gravi. Basta pensare al potere algoritmico di bloccare un contenuto indesiderato – cosa che accade già sulle piattaforme della Meta per tutto ciò che riguarda Gaza – per rendersi conto di queste conseguenze indesiderate.
Questo testo è tratto dalla newsletter Artificiale.
Iscriviti a Artificiale |
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Iscriviti a Artificiale
|
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it