Le macchine sbagliano
Le intelligenze artificiali generative non sono infallibili. Questo è, probabilmente, lo scoglio più grosso da superare se vogliamo immaginare di usarle come assistenti. Si tratta di un cambio di paradigma importante rispetto al modo in cui tendiamo a pensare alla tecnologia più avanzata e a come ce l’ha raccontata la fantascienza. Questo dipende anche, in parte, dalla nostra esperienza con le tecnologie. L’esempio più semplice e meccanico che possiamo fare è questo: se uso una tastiera mi aspetto che scriva esattamente le lettere che digito. Almeno finché la tastiera non si rompe.
Allo stesso modo, se uso una calcolatrice per far di conto mi aspetto che il risultato sia sempre corretto. Ma anche questo è vero soltanto in parte: se inserisco troppe cifre rispetto alla capacità della calcolatrice ottengo un’approssimazione, cioè un risultato quasi esatto, ma con un errore.
Insomma, le macchine sbagliano, proprio come gli umani che le hanno progettate e costruite, che le usano e le fanno funzionare. L’accuratezza rispetto a compiti specifici si può misurare in percentuale. Per esempio, sappiamo che l’accuratezza delle diagnosi mediche varia, a seconda degli ambiti, tra il 70 e l’84 per cento. Significa che dal 16 al 30 per cento dei casi le diagnosi si rivelano sbagliate, a volte con esiti fatali. Può fare impressione, ma è un dato connaturato all’incertezza e alle diverse variabili che si presentano a un medico quando deve prendere decisioni.
Gli strumenti tecnologici progettati bene possono aumentare questa accuratezza, se i medici sanno usarli. Le ia generative possono aumentarla ulteriormente e accelerare alcuni processi. Ma, anche se tutto si combina nel migliore dei modi possibili, l’accuratezza non arriverà mai al 100 per cento.
Eppure facciamo una gran fatica a pensare in questi termini quando parliamo delle ia: ci stupiamo se una macchina non riesce a disegnare una mano con il numero giusto di dita. Ci stupiamo se una macchina sbaglia ad analizzare un file excel da cinquecentomila righe. Ci stupiamo se una macchina inventa di sana pianta un’affermazione o se non esegue bene un compito o se prende tempo e lavora a basso risparmio energetico, anche quando questa macchina è progettata esplicitamente per simulare alcuni comportamenti umani.
In aggiunta a questo, quando vediamo le macchine fare cose che pensavamo umane come, per esempio, maneggiare il linguaggio naturale o prendere decisioni subentrano altre paure, fino a chiederci: che fine fa il libero arbitrio, se deleghiamo certe scelte alle macchine?
Mettere insieme le considerazioni sugli errori e sulla fallibilità delle macchine e quelle sulle decisioni da prendere ci aiuta, prima di tutto, a stabilire cosa vogliamo che sia delegato a una macchina e cosa, invece, deve essere solamente umano. Abbiamo anche bisogno di uscire dall’idea che sia tutto deterministico e che a una singola azione corrisponda una e una sola reazione. Non è così, è una semplificazione che sembra consolatoria ma, in realtà, è molto pericolosa.
Commentando una bella puntata del podcast Crash – La chiave per il digitale, il professor Giuseppe Attardi scrive: “I fenomeni che osserviamo sono l’effetto su larga scala di leggi probabilistiche. Ci sembra tutto deterministico, perché su larga scala, la probabilità di un comportamento insolito è molto bassa. Anche nei sistemi complessi noi osserviamo un comportamento articolato e siamo portati a credere che ci sia una mente o un coordinatore che guida quel comportamento. Ma invece, come spiega Giorgio Parisi nel libro In un volo di storni, “il comportamento collettivo è solo l’effetto complessivo di tantissime singole decisioni autonome”.
Questo testo è tratto dalla newsletter Artificiale.
Iscriviti a Artificiale |
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Iscriviti a Artificiale
|
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |