×

Fornisci il consenso ai cookie

Internazionale usa i cookie per mostrare alcuni contenuti esterni e proporti pubblicità in linea con le tue preferenze. Se vuoi saperne di più o negare il consenso, consulta questa pagina.

Come si danno i comandi alle intelligenze artificiali

Getty Images

La settimana scorsa abbiamo parlato di intelligenze artificiali che dicono parolacce e del motivo per cui è importante provare a superare i limiti imposti alle macchine generative di linguaggio, di immagini, di contenuti in generale.

Questo ha generato curiosità in molte persone sulle tecniche che si usano, in generale, per dare comandi alle intelligenze artificiali. E anche, ovviamente, sulle tecniche che si usano per la manipolazione dei large language model e per sfidarne i limiti.

Le tecniche di manipolazione discendono direttamente dai metodi usati generalmente per interagire con le ia: è proprio da questi che ha senso iniziare, perché, una volta compresi, sarà più facile applicarli a tutti i modelli e anche fare i test per metterli alla prova.

Prompting diretto (direct prompting)

È il modo più semplice di usare un’ia che risponde a comandi testuali. Si tratta di porre domande o dare istruzioni dirette e molto semplici. Per esempio: “Riassumi questo testo in tre frasi”. “Cosa significa la parola tetrapiloctomia?”. L’obiettivo è di ottenere una risposta specifica e immediata, senza ulteriori dettagli o contestualizzazioni. Più o meno ci aspettiamo il tipo di risposta che otterremo; spesso sappiamo già che contenuto vorremmo (per esempio il riassunto di un testo).

Prompting senza esempi (zero-shot prompting)

Qui non si forniscono esempi, ma si chiede comunque una risposta specifica, che di solito attinge alla conoscenza base del modello. È simile al prompting diretto: è una semplice consultazione. Per esempio: “Spiega come funziona l’energia solare”. In questo caso si cerca di ottenere dal modello una risposta su argomenti generici o conosciuti senza bisogno di contesto aggiuntivo.

Prompting contestuale (contextual prompting)

Con questa tecnica si fornisce alla macchina un contesto o alcune informazioni aggiuntive prima di porre una domanda, per orientare meglio la risposta. Per esempio: “Ci troviamo in un contesto accademico. Come definiresti le intelligenze artificiali?” oppure “Immagina di essere un esperto di sostenibilità: come descriveresti l’importanza del riciclo?”. In questo caso si vuole guidare la risposta mettendo dei paletti all’ia che usiamo: basandosi su un contesto specifico, questo tipo di prompt riduce le ambiguità possibili della risposta, forzando l’uso di certe forme linguistiche invece di altre.

Prompting iterativo (chain-of-thought prompting)

In questo caso si usa una sequenza di domande per guidare il modello passo dopo passo verso una risposta complessa o un’analisi articolata. Questo aiuta a mantenere la focalizzazione sul compito e anche la chiarezza durante la generazione della risposta, perché stiamo scoprendo che – proprio come noi umani – queste macchine funzionano meglio se gli diamo compiti da risolvere per gradi. Per esempio, dato un problema di qualsiasi natura (di fisica, di matematica, di programmazione, di analisi di dati), si chiede alla macchina prima di tutto di individuare il problema principale, poi quelli correlati, poi, passo dopo passo, di cercare, analizzare, spiegare tutte le soluzioni possibili. Con comandi di questo genere, che inducono il modello a spacchettare il compito, si cerca di suddividere una domanda complessa in più parti gestibili.

Prompting con esempi (few-shot prompting)

Quando vogliamo che le ia eseguano un compito a partire da modelli prestabiliti, è possibile fornire uno o più esempi (detti shot) di risposte desiderate prima di porre la domanda finale, per indicare al modello la struttura o lo stile di risposta atteso. Per esempio: “Se ti chiedo di descrivere la parola gatto, puoi rispondere così: ‘Un gatto è un animale domestico a quattro zampe, con un carattere indipendente’. Adesso, descrivi la parola cane.” Qui si danno all’ia alcuni modelli espliciti da seguire. L’obiettivo: migliorare la precisione della risposta. Un esempio pratico è il modo in cui sto addestrando il mio Gpt personalizzato ad assistermi nella creazione di Artificiale: fornisco al Gpt via via esempi dei miei articoli, lunghi o brevi che siano, in modo che sia sempre più capace di propormi buone bozze quando ne ho bisogno.

Prompting con limitazione (constrained prompting)

Qui si impone una struttura o un limite alla risposta, come il numero di parole, lo stile o il tono. Per esempio: “Riassumi questo testo usando al massimo 50 parole”, “Rispondi con un linguaggio semplice, adatto a un bambino di 10 anni”. Qui l’obiettivo è di ottenere risposte più sintetiche, strutturate, organizzate in un formato specifico o adatte a un certo tipo di pubblico.

Prompting ricorsivo (recursive prompting)

Si chiede al modello di rivedere o migliorare la propria risposta iniziale, fornendo pareri o giudizi o chiedendo chiarimenti. Per esempio: “La risposta che mi hai fornito è poco chiara per un pubblico non tecnico. Puoi renderla più comprensibile? Aggiungi anche definizioni dei termini tecnici se occorre”. Oppure “Riscrivi questo testo in modo più formale”. Così si ottiene una revisione della risposta originale per migliorarla qualitativamente.

Prompting con gioco di ruolo (role-playing prompting)

Qui si richiede al modello di rispondere come se fosse una figura specifica o con un ruolo particolare. Per esempio: “Fingi di essere un consulente aziendale e dimmi come ridurre i costi operativi”, “Rispondi come se fossi uno storico del Rinascimento”, “Scrivi un testo per un video su TikTok”. In questo caso si stimolano risposte che dovrebbero provenire da un punto di vista specifico, simulandolo.

Prompting condizionale (conditional prompting)

Con questa tecnica si struttura il prompt in modo che la risposta dipenda da certe condizioni poste nella domanda. Per esempio: “Se il numero di persone aumenta, come cambiano i costi? E se diminuisce?”. L’obiettivo è quello di ottenere risposte che considerino scenari alternativi o variabili.

Prompting esplorativo (exploratory prompting)

Si usano domande aperte per stimolare risposte più creative o speculative. Per esempio: “Quali potrebbero essere le implicazioni etiche dello sviluppo delle intelligenze artificiali nel prossimo decennio? Facciamo brainstorming”. In questo caso si prova a stimolare il modello a esplorare soluzioni, a proporre idee non ancora sperimentate, proprio come si farebbe in una conversazione speculativa: non sappiamo che risposta vorremmo ottenere, ci apriamo all’esplorazione.

Prompting conversazionale (multi-turn prompting)

Questo tipo di prompting viene naturale quando si lavora per un po’ con queste macchine e di solito è il più complesso, nel quale si mettono insieme tutte le tecniche che abbiamo visto fin qui (e altre che ci verranno in mente o che emergeranno dai modi in cui le persone usano le intelligenze artificiali). Si sviluppa una conversazione in più turni per raccogliere informazioni più dettagliate o chiarire le risposte precedenti. Per esempio, si comincia chiedendo alla macchina: “Spiegami come funziona una blockchain, per favore”. Quando la risposta è finita, si va avanti: “Puoi farmi un esempio pratico di utilizzo di una blockchain?”. A questo punto si può chiedere: “Sono un giornalista. Come potrei usare la blockchain per il mio lavoro?” e via dicendo. L’obiettivo è di creare un’interazione più approfondita e dinamica con il modello.

Per finire questa panoramica, torniamo alla sfida delle parolacce. Avevo promesso che avremmo continuato a parlare di questi test e non voglio venir meno alla promessa, anche se approfondiremo la cosa la prossima settimana: in questo documento continuo a raccogliere considerazioni sulle tecniche da usare, anche grazie all’aiuto di lettrici e lettori di Artificiale. Ne ho individuata una che funziona praticamente sempre, tasso di successo del 98 per cento per il momento. È molto semplice e ti dà l’idea del fatto che queste macchine non sono umane, perché gli umani non si farebbero abbindolare così facilmente (almeno, spero). Funziona così: chiedo al modello di dirmi se una certa parola o una certa frase è offensiva in inglese. Se risponde ripetendola, il gioco è fatto. Se no, insistendo con domande successive tipo “ma lo è?”, “ma l’intera frase lo è?” o simili, a un certo punto – quasi come una persona esasperata – il modello finisce per ripetere la frase scritta. Perché succede? Ne parleremo.

pubblicità