Una delle rassicurazioni che ci diamo come esseri umani per vincere la paura di essere sostituiti dalle macchine è che servirà sempre e comunque una supervisione di persone esperte. Ci sono studi che ne parlano esplicitamente e sembra inevitabile – e anche desiderabile – in presenza di macchine che possono commettere errori, pensare a forme di controllo umano, soprattutto nelle applicazioni con rischi maggiori.
Antonio, un lettore affezionato di Artificiale che ha partecipato anche ai due workshop a Ferrara nel 2023 e nel 2024, mi ha scritto una lunga riflessione sull’argomento.
“In questo momento”, dice Antonio, “sto incoraggiando i miei collaboratori più giovani a usare le intelligenze artificiali nei lavori più noiosi e con minor valore aggiunto. Però, a volte, il rischio è che si facciano prendere la mano, che abbandonino il senso critico e che arrivino a fidarsi un po’ troppo degli strumenti, sbagliando. In quei casi intervengo e loro lavorano per risolvere i problemi. Ma, fra dieci anni, quei collaboratori avranno ruoli di responsabilità e saranno ancora più abituati a lavorare con le intelligenze artificiali. La cosa che mi chiedo – e che un po’ mi preoccupa – è se li stiamo preparando al meglio a essere dei supervisori esperti e se loro stessi saranno in grado di guidare le nuove generazioni. Ti sei fatto un’idea al riguardo?”.
L’approccio che Antonio suggerisce ai suoi collaboratori è lo stesso che propongo io e che richiede attenzione su molte cose: scrivere e progettare i casi in cui vogliamo che un assistente di intelligenza artificiale ci aiuti; decidere qual è l’obiettivo, quali sono i dati che daremo all’assistente in input, quali sono gli output che ci aspettiamo; provare e, dopo le prove, capire quali sono i compiti che ha senso delegare parzialmente alle macchine e quali, invece, devono rimanere umani; saper valutare quando è il caso di accelerare e quando, invece, rallentare; trattare sempre le risposte delle ia come se fossero dei semilavorati da verificare; resistere alla tentazione di prendere altre scorciatoie e di accelerare ancora di più. È un metodo e va compreso, imparato, insegnato. Ci sono casi in cui non vale la pena di usare un’ia. Casi in cui, invece, la sua assistenza può liberare il tempo delle persone e, in generale, liberarci da quelli che David Graeber chiamava i bullshit jobs.
Però Antonio ha ragione anche sugli aspetti critici, secondo me: la supervisione esperta sulle intelligenze artificiali è un argomento complesso. Chi supervisiona deve, al tempo stesso conoscere, molto bene le macchine che usa e conoscere altrettanto bene i compiti che stanno svolgendo. Deve anche preoccuparsi del fatto che le macchine siano allineate al contesto in cui operano e alla comprensione di ciò che è umano. Insomma: non solo dovremo occuparci di formare le persone perché usino questi strumenti senza subirli. Dovremo formare anche le macchine.
Questa complessità si lega a un tema più ampio: la necessità di sviluppare non solo competenze tecniche, ma anche capacità critiche e di gestione del cambiamento. La formazione di figure in grado di fare da supervisori esperti non può limitarsi all’apprendimento di strumenti e algoritmi e non è solo una questione tecnologica. Servono competenze interdisciplinari: sapere come funziona una macchina, ma anche quali implicazioni sociali, etiche ed economiche hanno le decisioni prese con il suo aiuto. È un equilibrio delicato, che richiede tempo, risorse, approcci multidisciplinari.
Se lasciamo che la capacità di interpretare e dare senso alle informazioni venga interamente delegato alle macchine, perdiamo senz’altro non solo il controllo, ma anche una parte fondamentale di ciò che ci rende umani. Non è una questione banale. Il lavoro con le ia richiede di allenare la capacità di fare domande giuste, di mettere in discussione i risultati e di capire quando è necessario fermarsi. Questo significa riconoscere i limiti degli strumenti e ricordare che la supervisione umana non è solo un atto tecnico, ma una responsabilità etica.
Alcune iniziative politiche stanno già provando a muoversi in questa direzione. Per esempio, in Europa, l’Ai Act punta a fissare linee guida chiare per garantire che le macchine non agiscano mai senza il controllo umano, soprattutto in settori sensibili come la sanità, la giustizia, la sicurezza (con una serie di criticità: per esempio, non si occupa dell’integrazione nell’industria bellica né dei controlli per i cittadini non europei). Allo stesso modo, l’approccio umanocentrico suggerito dal governo giapponese fin dal 2019 va nella stessa direzione.
Bisognerebbe guardare a questa transizione con più attenzione, imparando a mettere al centro della nostra relazione con le ia ciò che ci rende insostituibili: la nostra capacità di riflettere, immaginare e decidere in modo consapevole. Bisognerebbe, però, ripensare molte cose, andare oltre il mito della crescita continua e della produttività da aumentare, garantire che siano le macchine a lavorare per noi e non il contrario.
Le soluzioni utopistiche ci sono e bisogna anche difendere il tempo umano dalla tentazione di chi, in futuro – capita già ora – vorrà pagare sempre meno le persone – spremerle e stressarle sempre di più – nell’illusione che tanto faranno tutto le macchine. Bisogna, in altre parole, difenderci da chi vorrà estrarre valore a tutti i costi per massimizzare il profitto di pochi.
Il problema che solleva Antonio ne porta altri, uno dietro l’altro, di cui dovremmo proprio iniziare a occuparci.
Questo testo è tratto dalla newsletter Artificiale.
Iscriviti a Artificiale |
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Iscriviti a Artificiale
|
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it