Il concetto di ai slop è stato formalizzato per la prima volta a maggio del 2024 sul blog del programmatore Simon Willison, ma circolava già da mesi tra forum o social come 4chan, reddit, X e Hacker News. La parola slop — brodaglia, spazzatura — è oggi il modo più usato per definire il peggio delle produzioni fatte con le intelligenze artificiali generative. Si riferisce a immagini, testi, video o canzoni prodotti in serie, a basso costo e con un’estetica che a molte persone pare disturbante.

Secondo alcuni intellettuali, questa estetica somiglia sempre di più a quella dell’estrema destra. Gareth Watkins, in un articolo pubblicato su New Socialist, ha spinto l’analisi fino a chiamarla “la nuova estetica del fascismo”. Per lui, l’arte generativa non è solo brutta: è brutta apposta. Serve a comunicare che la bellezza non conta, che l’importante è il potere — e che quel potere può permettersi anche la bruttezza. Esattamente come il cybertruck di Elon Musk: goffo, sbagliato, antiestetico. Ma proprio per questo un simbolo perfetto del dominio.

In Italia, Pietro Minto ha raccontato su Lucy come le immagini sintetiche siano diventate strumenti preferiti dalla propaganda reazionaria. Il titolo dell’articolo, “L’intelligenza artificiale è l’arma definitiva dei populisti”, è un po’ troppo sbrigativo. Nel pezzo, Minto parla del video di Trump che promette un nuovo paradiso per Gaza, della Lega che evoca minacce immaginarie contro la tradizione italiana, dell’Afd che, in Germania, infarcisce le sue campagne con famiglie bianche e nostalgie post-belliche.

L’arte generata diventa così la nuova forma visiva dell’autoritarismo: economica, rapida, facile da diffondere, perfetta per raccontare un mondo semplice diviso fra amici e nemici. “L’estrema destra”, scrive Minto, “si è dimostrata in grado di usare i memi e la cultura digitale a suo favore, spesso appropriandosi di contenuti (o di battaglie culturali come quella contro il politicamente corretto) per fare breccia su un pubblico iperconnesso e giovane”.

Di fronte a tutto questo è facile lasciarsi andare allo sdegno. Ma forse è proprio l’estetica la chiave per cambiare prospettiva. L’ia non produce nulla da sola. È un medium, non un’autrice. Prima di arrivare alla pubblicazione di slop online ci sono molti passaggi umani: il comando che scegli, la sequenza di istruzioni che dai, la selezione dei parametri, l’editing finale, il contenuto che prendi e infine la tua responsabilità nel cliccare sul pulsante di pubblicazione sono alcuni di questi passaggi. È lo sguardo umano a modellare le immagini che pubblichiamo. E se il risultato è mediocre o tossico, non è colpa della macchina, ma è nostra responsabilità.

Da mesi lavoro ad allenare un’intelligenza artificiale che si chiama MidJourney sul mio gusto estetico. Funziona così: lo strumento mi propone coppie di immagini e io posso scegliere quale preferisco fra le due o se preferisco non rispondere. Nel farlo, MidJourney registra schemi ricorrenti nel mio gusto. Alcuni di questi schemi li conosco molto bene. Altri, probabilmente, li descriverei con fatica o sono addirittura inconsapevoli. Questo influenza a lungo termine i risultati che ottengo quando genero un’immagine con MidJourney. Poi ho iniziato a crearmi dei modelli di stile (in inglese, moodboard) a seconda dei progetti su cui lavoro.

Per esempio, ho un moodboard dedicato alla newsletter Atipiche. Tutte le immagini di quel progetto partono dalle suggestioni dell’articolo principale che esce ogni settimana, passano attraverso le mie idee e quelle di Anna Castiglioni, che cura il progetto, diventano parole e poi immagini generate attraverso i parametri del moodboard. Infine, scegliamo quella che preferiamo. Nel farlo, stiamo usando le intelligenze artificiali per costruire l’estetica del progetto: un’estetica divergente e delicata.È esattamente lo stesso percorso che ho seguito per l’immagine che illustra questo articolo di Artificiale o per creare immagini di robot che fanno lavori scomparsi.

Al di là dei miei esperimenti, molte persone che lavorano nel mondo dell’arte fanno già uso di questi strumenti a vario titolo. In alcuni casi non ne parlano perché c’è ancora uno stigma che circola nell’ambiente. Anche questo dimostra che dovremmo impegnarci per disinnescare il panico moralista nei confronti di queste tecnologie.

Francesco D’Isa raccoglie da più di due anni link a lavori artistici fatti con le ia. Si possono vedere sul suo profilo Instagram (qui e qui). “Condannare la tecnologia perché alcuni ne fanno un uso propagandistico o triviale”, ha scritto D’Isa su siamomine, “equivale a rifiutare la stampa nel suo complesso a causa di volantini politici o poster di regime. Se c’è un principio che la storia delle innovazioni tecniche ci insegna è che la vera rivoluzione sta nella pluralità di utilizzi: esistono sì gli abusi e le distorsioni, ma esistono anche le sperimentazioni virtuose, l’ibridazione con altri media, la nascita di generi nuovi. In questo dialogo fra una macchina e un essere umano, per esempio, ho conversato con un’intelligenza artificiale parlando di reddito di base universale e dinamiche di potere: le risposte non mi hanno sorpreso e dimostrano in maniera molto semplice che le ia non sono fasciste. Non sono neppure di destra né propagandiste né slop.

Lo stesso Willison, che ha contribuito a diffondere il termine nel mainstream, ricorda che siamo noi a decidere: “Non tutti i contenuti promozionali sono spam e non tutti i contenuti generati dall’intelligenza artificiale sono slop. Ma se vengono generati senza pensarci e imposti a qualcuno che non li ha richiesti, slop è il termine perfetto per definirli”. È una posizione preziosa, che sposta l’attenzione dal mezzo alla scelta umana: a ben vedere, lo slop non è un problema tecnico, è un problema culturale.

Le ia possono essere strumenti di propaganda come lo sono stati la stampa, la radio, la fotografia. Possono riprodurre pregiudizi, ma anche sfidarli. Possono diventare generatrici seriali di cliché oppure piattaforme di esplorazione estetica. Possono aumentare la diffusione su larga scala dei contenuti brutti – qualunque cosa voglia dire brutto – o di quelli con un gusto estetico diverso.

Dipende da chi le usa. E da come. C’è, in questo, una responsabilità politica ed educativa. Serve imparare a usare questi strumenti, a plasmarli, a contaminarli. Serve — per dirla tutta — smettere di giudicare le ia come se fossero persone e cominciare a trattarle per quello che sono: utensili. Il rischio di non farlo lo abbiamo già visto succedere con altre tecnologie digitali: significa lasciarle nelle mani di chi vuole usarle per manipolare. La soluzione non può essere il rifiuto: deve essere l’appropriazione. Altrimenti, sì, ci ritroveremo davvero immersi nella brodaglia. Ma saremo stati noi a sceglierlo.

Questo testo è tratto dalla newsletter Artificiale.

Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti
Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it