Forse conoscete qualcuno convinto che l’allunaggio sia stato una montatura e che i vaccini contro il covid-19 contenessero dei microchip. Queste persone restano attaccate a teorie senza fondamento anche di fronte a prove che dimostrano il contrario. Secondo un recente studio, però, alcune cambiano idea quando a esporre argomentazioni concrete non è un essere umano, ma un chatbot basato sull’intelligenza artificiale.

Si stima che quasi la metà della popolazione degli Stati Uniti creda in una teoria cospirativa, che sia quella secondo cui l’ex presidente John F. Kennedy fu ucciso dalla Cia o quella dei cadaveri alieni nascosti nell’area 51. Per molti psicologi queste convinzioni appagano un certo tipo di bisogno, come il desiderio di sicurezza. Tuttavia verificare le ipotesi sulle “motivazioni sotterranee” è difficile, osserva Thomas Costello, psicologo dell’American university di Washington, negli Stati Uniti, e principale autore dello studio. Secondo lui “le ipotesi sulle motivazioni non spiegano tutto. O forse sono sbagliate”.

Bufale galoppanti

Quando discutono di complotti, i loro sostenitori spesso cercano di confondere chi non è d’accordo presentando in rapida successione il maggior numero possibile di argomentazioni, una tecnica chiamata “galoppo alla Gish”. Nessun essere umano può ribattere a tutte quelle affermazioni allo stesso tempo, ma l’intelligenza artificiale ci riesce. I ricercatori volevano capire se i modelli linguistici di grandi dimensioni (llm) come Gpt-4 Turbo, in grado di elaborare e generare grandi quantità di informazioni in pochi secondi, potevano smontare le teorie cospirative con “dissuasioni personalizzate”. L’équipe di Costello ha reclutato più di duemila volontari tra persone che credevano in almeno un complotto, cioè persuase che eventi o situazioni importanti – l’omicidio Kennedy o la pandemia di covid-19 – siano stati architettati in segreto da organizzazioni o persone potenti. I volontari si sono poi confrontati con un chatbot basato
sull’llm, parlando delle loro convinzioni, presentando le prove che le suffragavano e dichiarando il loro grado di fiducia nella veridicità di quelle affermazioni. Il chatbot – addestrato con informazioni prese da libri, dibattiti online e altre fonti – le ha confutate punto per punto con argomentazioni accurate e basate sui fatti. Quegli scambi sono riusciti a ridurre in media del 20 per cento le certezze dei volontari, esito che si è dimostrato duraturo – fino a due mesi – ed efficace nel caso di teorie diverse.

Se il chatbot ha più successo, deduce lo scienziato del comportamento Jan-Willem van Prooijen della Vrije universiteit di Amsterdam, nei Paesi Bassi, forse dipende dal fatto che sa mantenersi “molto civile”, mentre le discussioni tra umani possono diventare “animate e irrispettose”. Inoltre, se con amici o familiari c’è il rischio di sentirsi giudicati per aver provato a convincerli, con l’intelligenza artificiale non si “perde la faccia”.

Quando hanno ripetuto l’esperimento usando un chatbot che dialogava con i partecipanti senza usare i fatti per formulare le controargomentazioni, Costello e i colleghi non hanno riscontrato cambiamenti, a dimostrazione che presentare le prove è fondamentale. “Senza i fatti, non si riusciva a convincerli”, dice Costello.

Anche se è improbabile che un complottista si esponga di sua iniziativa ai chatbot di debunking (smentita di una notizia falsa), van Prooijen e altri studiosi osservano che l’ia potrebbe rafforzare le tecnologie esistenti. Molti social media adottano già strategie per segnalare la potenziale disinformazione, come la funzionalità Community notes di X. Il nuovo modello potrebbe fornire altre informazioni per combatterla. I chatbot potrebbero anche servire a verificare le informazioni in modo rapido e accurato, favorendo tra gli utenti un sano livello di scetticismo e rendendo più difficile cadere nella trappola della disinformazione. “Possiamo considerarli una forma d’igiene della conoscenza”, spiega Costello, “come lavarsi i denti, ma per la mente”. ◆ sdf

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1581 di Internazionale, a pagina 104. Compra questo numero | Abbonati