Sora è un sistema di generazione video a partire da linguaggio naturale basato su un’intelligenza artificiale. Per lanciarlo, fare pubblicità e perfezionarlo, a febbraio del 2024 la OpenAi ha coinvolto circa 300 artisti in un programma di test, invitandoli a usare lo strumento gratuitamente prima di renderlo disponibile a tutti.
Da allora sono stati sviluppati da altre aziende molti strumenti simili: alcuni esistevano già e si sono evoluti, altri sono partiti da zero. Io uso Runway, ma ci sono anche Kling, Minimax e molti altri ancora che si possono usare in vari modi: online oppure, con qualche competenza in più, direttamente sul proprio computer; gratuitamente o con modelli freemium (cioè: con limiti se li vuoi usare senza pagare, senza limiti se sottoscrivi un abbonamento).
Sora, però, non è mai stato aperto al pubblico dalla OpenAi e così è rimasto appannaggio di quel gruppo ristretto di artisti che hanno potuto continuare a usarlo in via esclusiva.
Il 26 novembre 2024, però, un gruppo di questi artisti ha deciso di rendere Sora disponibile su Hugging Face, una piattaforma collaborativa per lo sviluppo di modelli di intelligenze artificiali alternative, luogo ideale per progetti che cercano di bilanciare le ia proprietarie di grandi aziende condividendo modelli aperti, con trasparenza e approcci comunitari.
Hanno motivato il loro gesto con una lettera di protesta che inizia così: “Cari padroni delle intelligenze artificiali aziendali, abbiamo ricevuto l’accesso a Sora con la promessa di essere i primi tester, red teamer (i gruppi di lavoro che fanno delle prove per superare i limiti di sicurezza dei software, come abbiamo raccontato qui, ndr) e partner creativi. Crediamo, invece, di essere stati attirati in un’operazione di art washing per dire al mondo che Sora è uno strumento utile per gli artisti”.
Per tre ore chiunque ha potuto usare Sora. Poi la OpenAi è intervenuta bloccando il modello e ora si è tornati al punto di partenza, con un bel po’ di subbuglio in più, però. L’azione è stata firmata da un gruppo di diciassette artisti che si sono esposti personalmente e da altri (non sappiamo quanti) che sono rimasti anonimi.
Perché quest’azione è stata fatta adesso? Cos’è successo da febbraio in poi? I firmatari dell’iniziativa affermano di non essere contro le tecnologie di intelligenza artificiale ma di essersi accorti, nove mesi dopo, di essere parte di un progetto di marketing; di aver contribuito senza compenso alla fase di test di Sora fornendo riscontri, segnalando problemi, sperimentando il software; di aver lavorato gratis per un’azienda con una valutazione di mercato di 150 miliardi di dollari: “Non siamo i vostri pupazzi per pubbliche relazioni”, hanno scritto.
Eppure, che fosse un’operazione di marketing con scambio reciproco era abbastanza evidente da subito. Ma cosa ne pensano le altre persone che hanno avuto accesso fin dall’inizio a questo modello? Non ci sono dichiarazioni congiunte, anche se è lecito aspettarsi che prima o poi qualcosa venga fuori.
Alcune di queste persone si sono esposte pubblicamente. Tim Fu, per esempio, ha scritto sulla piattaforma Threads: “Sono uno degli artisti coinvolti in Sora. Penso che quel che è stato fatto non sia etico. Quando la OpenAi ti avvicina con termini e condizioni chiare, puoi accettare o rifiutare. Rilasciare il software e dichiarare di agire come vigilanti a nome della comunità artistica è in cattiva fede e non rappresenta il resto degli altri Sora artist”.
Reza Sixo Safai, attore e filmmaker, ha scritto su LinkedIn che questa azione riduce l’artista a un ruolo di “vittima, di propagandista inconsapevole, di sciocco”. È sicuramente una storia che funziona, per come viene raccontata. Ma, aggiunge Safai “c’è una verità più complessa sugli artisti, sulla tecnologia e sulle storie che scegliamo di raccontare su entrambi. […] nello scarto tra narrazione ed esperienza si nasconde qualcosa che vale la pena esaminare. Non necessariamente su Sora, e nemmeno sull’intelligenza artificiale, ma su quanto abbiamo disperatamente bisogno che le nostre storie sulla tecnologia si conformino a modelli predeterminati. Di quanto ci sentiamo a disagio quando la realtà rifiuta di svolgere il ruolo assegnato”.
Quando sono stati invitati e hanno accettato, gli artisti hanno avuto il privilegio di usare in modo esclusivo e in anteprima questo strumento, assicurandosi un bel vantaggio su chi non ha potuto farlo. Pubblicare video prodotti con Sora, inoltre, gli ha dato visibilità nell’ecosistema social, com’è logico. I loro lavori e i loro nomi e le loro sperimentazioni venivano e vengono raccontate. Con quest’azione guadagnano altra visibilità.
Cos’è cambiato, allora? La sensazione è che anche in questa storia si sovrappongano diversi piani: convinzioni genuine, dinamiche di potere, necessità commerciali e di difesa della propria rendita di posizione. Le sfumature ci impongono di analizzare questa e altre storie in tutta le loro complessità, evitando di incasellare tutto in dinamiche di polarizzazione.
Questo testo è tratto dalla newsletter Artificiale.
Iscriviti a Artificiale |
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Iscriviti a Artificiale
|
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it