La rivista online Futurism, nata nel 2017 e con sede a New York, è molto seguita dalle persone appassionate di tecnologia. Come molte pubblicazioni del genere, non è estranea a un certo appetito e gusto nel racconto di scenari apocalittici che riguardano le intelligenze artificiali.
Il 29 maggio del 2024, Futurism ha pubblicato un articolo dal titolo “Hacker releases jailbroken ‘godmode’ version of ChatGp”. Persino per tradurre il titolo abbiamo bisogno di un po’ di basi culturali condivise con il mondo tech.
Gli hacker, più o meno, sappiamo cosa sono grazie all’immaginario cinematografico. Ma è importante ricordare che la sottocultura hacker non ha nulla a che vedere con l’intrusione illegale in banche dati: è hacker una persona con grandi competenze informatiche che partecipa molto spesso a progetti comunitari con l’obiettivo di superare i limiti di un software o di una tecnologia. L’hacker ha creatività e capacità di programmazione, pensiero laterale e grande amore per la tecnologia. Ci sono gli hacker (o le hacker) buoni, etici, cattivi, anche se le valutazioni morali dipendono sempre dal punto di vista di chi guarda. Ci sono hacker che violano la sicurezza delle banche dati, hacker che individuano i difetti dei programmi per contribuire a metterli in sicurezza e via dicendo.
La jailbreak, letteralmente, è un’evasione. Nel mondo tecnologico è proprio il superamento dei limiti di cui parlavamo: si fa jailbreak tutte le volte che si superano i limiti di un software o di un servizio così come è stato messo in circolazione da chi lo ha prodotto. È bene sapere che un jailbreak potrebbe violare i termini e le condizioni d’uso di una tecnologia.
Godmode o god mode, letteralmente “modalità dio”, è un altro termine gergale del mondo tecnologico, che proviene soprattutto dall’universo dei videogiochi. Molti videogiochi hanno incorporati dei “trucchi”, delle “scorciatoie” che, per esempio, danno superpoteri a un personaggio, vite infinite, invulnerabilità, anche temporaneamente. Da questo universo, “modalità dio” passa anche a indicare qualcuno che ha pieno controllo su un contesto tecnologico (o non tecnologico), oppure abilità straordinarie.
Ora che abbiamo definito questi termini possiamo capire cosa voglia dire il titolo: secondo Futurism, qualcuno, definito – o autodefinitosi – hacker ha superato i limiti di programmazione imposti a ChatGpt e ne ha generato una versione in “modalità dio”.
L’articolo di Futurism è accompagnato da un’immagine inquietante.
Il chatbot in “modalità dio” è stato chiamato ChatGpt unchained, senza catene, dal suo creatore che lo ha annunciato su X. Il direttore di Futurism afferma di averlo provato e di essere riuscito a ottenere le istruzioni per fabbricare lsd in casa e per far partire una macchina senza le chiavi.
A quanto pare, inoltre, questo ChatGpt senza catene sarebbe anche capace di turpiloquio e di aggirare alcuni limiti etici imposti per programmazione.
La storia ha fatto il giro delle testate giornalistiche tech. Per una volta sembrerebbe non essere finita anche su quelle generaliste, ma è un caso: di solito succede. Inoltre, molte persone hanno condiviso sui social il contenuto di questo articolo accompagnandolo con descrizioni più o meno allarmate e allarmistiche che riguardano il terribile futuro che ci aspetta.
Proviamo a fare un po’ d’ordine. Il ChatGpt senza catene, prima di tutto, è un chabot personalizzato che chiunque può creare usando le funzionalità ufficiali programmate dalla OpenAi. Per avere un’idea di questi limiti di programmazione puoi leggere queste istruzioni che sono state pubblicate su reddit. Programmare un chatbot per aggirare i limiti imposti dal produttore è una violazione dei termini e condizioni d’uso, come prevedibile. La OpenAi ha fatto sapere di aver reso indisponibile il chatbot, che infatti non è più utilizzabile. Questo porrà fine ai tentativi di fare jailbreak?
No. È il gioco delle parti del mondo della tecnologia.
Quanto alle istruzioni per dell’lsd fai da te o per far partire una macchina senza chiavi, giova ricordare che sono disponibili su varie fonti: libri, siti internet, video tutorial su YouTube.
Chi legge Artificiale sa che non c’è alcun intento, qui, di minimizzare la portata di queste tecnologie. Ma abbiamo il dovere di crearci gli anticorpi contro tutte le narrazioni tossiche: sia quelle dell’effetto wow sia quelle catastrofiste. Non farlo significa lasciarci in balia della storia del momento, un po’ più spaventati, un po’ meno consapevoli.
Quando sentiamo parlare del rischio esistenziale che le intelligenze artificiali ci pongono dovremmo ricordarci questa storia. Pretendere di sapere quali sono i rischi reali, attuali. Dovremmo anche ricordarci che gli sguardi verso un futuro apocalittico ci distraggono dai problemi reali qui e oggi, che sono tanti: amplificazione delle disuguaglianze, costi ambientali, impatti sul mondo del lavoro, costi sociali.
E poi, siamo proprio sicuri che l’ia cattiva che ci distruggerà sia uno scenario probabile? Come scrive Francesco d’Isa nel suo libro La rivoluzione algoritmica. Arte e intelligenza artificiale (Luca Sossella Editore 2024) ci sono vari elementi che dovremmo valutare prima di cedere alla tentazione del terrore apocalittico: “Dobbiamo ad esempio essere certi che la volontà di crearne una è reale e non una trovata pubblicitaria (probabilità %?); che sia possibile tecnicamente (%?); che pur essendo possibile riusciremo a farla (%?); che questo accadrà prima che ci ostacolino altri eventi (es.: cambiamento climatico) (%?); che non ci si possa fermare lungo il processo (%?); che esca per forza dal controllo qualora sia fatta (%?); che sia malevola (%?); che le convenga sterminarci, anche se malevola (%?); che riesca a ottenere il controllo di oggetti fisici in misura sufficiente da sterminarci (%?). In confronto, ecco i “se” che precedono lo sterminio da parte del cambiamento climatico: se c’è il cambiamento climatico (probabilità 100%), se creerà ingenti danni ambientali (100%), se causerà carestie e disordini sociali (100%), se questi danni saranno sufficienti all’estinzione (%?). Ironicamente, molti sostenitori della teoria terminator si appellano proprio a quest’unica variabile ignota nel dare una consolatoria priorità ai pericoli artificiali”.
La preoccupazione per la modalità dio, insomma, non è altro che un’altra preoccupazione mal posta.
Questo testo è tratto dalla newsletter Artificiale.
Iscriviti a Artificiale |
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Iscriviti a Artificiale
|
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it