La lunga strada dell’intelligenza artificiale
“Non perfetta ma straordinariamente impressionante”.
Così McKinsey, società internazionale di consulenza strategica, descrive in un recente articolo la prestazione di ChatGpt, il modello di intelligenza artificiale per l’elaborazione di testi di cui molto si sta parlando.
La sensazione è che, se fosse esistita una formula superlativa ancor più superlativa di “straordinariamente impressionante”, gli autori avrebbero usato quella.
Il motivo di tanto sbalordimento è semplice: McKinsey chiede a ChatGpt di scrivere, nello stile McKinsey, il paragrafo di apertura di un articolo su come l’intelligenza artificiale (da adesso in poi la chiameremo anche Ia) influirà sul mondo degli affari, e scopre che l’Ia è in grado di farlo.
Compiono un esperimento analogo molti altri. Tra questi, l’Atlantic, che pubblica un gustoso articolo di critica alle prestazioni dell’Ia, la quale “non ha la capacità di comprendere realmente la complessità del linguaggio e delle conversazioni umane. Il programma è semplicemente progettato per generare parole a partire da un determinato input, ma non ha la capacità di comprenderne il significato. Di conseguenza, qualsiasi risposta sarà probabilmente piatta, superficiale e senza acume”.
Il fatto notevole, però, è che – in un curioso gioco di specchi – questo testo è stato scritto dall’Ia medesima, in risposta alla richiesta di produrre, nello stile dell’Atlantic, un articolo critico nei confronti dell’Ia. L’altro fatto notevole è che l’Ia sembra essere piuttosto onesta a proposito di se stessa.
Tra l’altro: l’Atlantic ha coperto ampiamente il tema dell’Ia. Se volete dare un’occhiata, qui ci sono tutti gli articoli.
Anche Federico Rampini, dopo aver sottoposto all’Ia un argomento che conosce bene, racconta il proprio sconcerto sul Corriere della Sera: “Ho chiesto a ChatGpt di scrivere un’analisi di cinquemila parole. Lo ha fatto in cinque minuti. Ho letto il risultato: dignitoso. Non solo per la forma, ortografia e sintassi di un inglese perfetto. Anche il contenuto: una sintesi che definirei equilibrata e aggiornata di informazioni e analisi correnti sul tema della Cina in Africa. Posso fare di meglio io? Per adesso sì… ma anziché cinque minuti ci metterei cinque ore, o forse cinque giorni”.
McKinsey si sbilancia di più, e afferma che, nel momento in cui i computer possono rispondere a domande producendo contenuti originali a partire dai dati in loro possesso, “possono ora senza dubbio dimostrare creatività”.
Per capire se è proprio vero, e se almeno qualche dubbio possiamo averlo, e quali sono i rischi, le potenzialità e le prospettive, dobbiamo fare un passo di lato. E, prima ancora, un bel passo indietro. Alla fine, se tutto va bene, potremo fare anche un passo avanti.
Insomma: mettiamoci tutti quanti comodi.
Le origini
Prima di tutto: “intelligenza artificiale” oggi vuol dire che un computer può essere addestrato a elaborare dati in una maniera che ricalca i processi tipici di un cervello umano. Per esempio, può riconoscere schemi e associare dati e può sviluppare nuove strategie per riuscirci meglio. Lo fa velocissimamente. Più crescono la potenza di calcolo e i dati a disposizione per l’addestramento, più l’intelligenza artificiale diventa accurata nelle sue risposte.
Il termine intelligenza artificiale appare per la prima volta nel 1956, quando l’informatico e scienziato cognitivo americano John McCarthy lo conia in occasione di un seminario estivo presso il Dartmouth College. Il seminario dura due mesi. Nel gruppetto dei partecipanti ci sono scienziati cognitivi, informatici, fisici, matematici, ingegneri. C’è Claude Shannon, padre della teoria dell’informazione. C’è Herbert Simon, che anni dopo vincerà il Nobel. La Dartmouth conference viene considerata il momento fondativo dell’intelligenza artificiale intesa come nuovo campo di studi.
Non dimentichiamo però che ancora prima, nel 1943, il neurofisiologo Warren McCulloch e il matematico Walter Pitts (ricordiamoci di questi due nomi: li ritroveremo) teorizzano la possibilità di creare un sistema neurale artificiale, capace di eseguire operazioni logiche e di imparare.
Nel 1950 Shannon ipotizza la creazione di un programma informatico per giocare a scacchi. Nello stesso anno il matematico e crittografo inglese Alan Turing formula l’idea del test che prenderà il suo nome: in sostanza, una macchina si potrà considerare “intelligente” quando sarà in grado di fornire risposte indistinguibili da quelle di un essere umano. Il test verrà modificato nel tempo alla ricerca di criteri via via più stringenti, e si evolverà insieme allo sviluppo delle macchine.
Nel 1958 Io psicologo Frank Rosenblatt sviluppa il Perceptron: si tratta di un programma per riconoscere le immagini che applica le teorie di McCulloch e Pitts e consiste, appunto, in una rete neurale artificiale. Il programma gira su un computer Ibm 704 dotato di 400 fotocellule: un bestione pesante cinque tonnellate.
Le prestazioni attese sono altissime: il New York Times afferma che si tratta dell’embrione di una macchina che “sarà capace di camminare, parlare, vedere, scrivere, riprodursi ed essere consapevole della propria esistenza”. A finanziare la ricerca è la marina militare degli Stati Uniti.
Ma una singola rete neurale artificiale si dimostra inadeguata a compiere le operazioni logiche richieste: i risultati sono deludenti e, poiché continuano a esserlo nonostante gli sforzi dei ricercatori, il progetto viene abbandonato. E con esso si accantona l’idea stessa di impiegare reti neurali per l’Ia. Ci vorranno sessant’anni per arrivare a capire che, invece, la strada da percorrere è proprio quella.
Tra i primi programmi (siamo nel 1965) in grado di superare il test di Turing c’è probabilmente Eliza, un software che simula le risposte di uno psicoterapeuta. Questo non vuole certo dire che Eliza “pensa”. Vuole però dire che sa produrre reazioni quasi sempre appropriate a input complessi, tanto che molte delle persone che interagiscono arrivano ad attribuire ad Eliza sentimenti di tipo umano.
Nel 1968 esce il film 2001: Odissea nello spazio. Al centro della vicenda narrata c’è Hal, un computer senziente: l’intelligenza artificiale entra ufficialmente nell’immaginario collettivo. Ma quasi contemporaneamente esce dalle priorità di coloro che dovrebbero investirci in termini d’ingegno e di denaro: di fatto, a partire dagli anni settanta e per circa vent’anni, l’entusiasmo della comunità scientifica e dei finanziatori attorno all’Ia si spegne proprio perché i progressi restano molto al di sotto delle previsioni.
Nel 1972, a Stanford, viene messo a punto Mycin, un sistema capace di identificare i batteri responsabili di infezioni gravi e di consigliare antibiotici nel dosaggio corretto. Ma la potenza di calcolo disponibile è ancora limitata e il sistema non viene sviluppato.
Nel 1979 lo Stanford Cart, un accrocco semovente dotato di telecamera, riesce ad attraversare da solo una stanza piena di sedie. Ci mette circa cinque ore.
Solo pochi visionari continuano a credere in quella che, ai più, appare come una missione impossibile. È l’inverno dell’intelligenza artificiale. Le sue estreme conseguenze si protrarranno fino al 2012.
Alla fine degli anni ottanta il ricercatore Yann LeCun sviluppa un algoritmo che sa “vedere” e riconoscere gli assegni bancari. E che sa imparare a farlo meglio: è l’inizio della rivoluzione del machine learning.
Nel 1997 un supercomputer di Ibm, Deep Blue, sconfigge il campione del mondo Garry Kasparov in una partita a scacchi.
Nel 1998 il primo indice di Google conta 26 milioni di pagine web, ordinate secondo criteri di rilevanza.
Nel 2002 viene lanciato il primo robot commerciale domestico: è un aspirapolvere dotato di sensori, che decide da solo come muoversi per casa. Qualche anno dopo imparerà anche a non cadere giù per le scale.
Nel 2009 gli scienziati della Northwestern University sviluppano un programma che scrive notizie sportive senza intervento umano. Nel 2011 Watson, un computer che risponde a domande poste nel linguaggio umano, sconfigge i campioni del gioco Jeopardy!.
Nel 2012 tre ricercatori dell’Università di Toronto – Alex Krizhevsky, Ilya Sutskever e Geoffrey E. Hinton – dimostrano finalmente le potenzialità delle reti neurali per il riconoscimento delle immagini. Ed eccoci al punto di svolta.
Se in precedenza i progressi dell’Ia sono stati oggettivamente lenti, dal 2012 in poi tutto accelera, e tanto. Questo succede essenzialmente per due ordini di motivi.
In primo luogo, e sotto il profilo quantitativo, continua ad aumentare in modo esponenziale la potenza di calcolo. Grazie alla diffusione di internet, aumenta enormemente anche la quantità di dati disponibili per l’elaborazione.
Continua ad aumentare, infine, il grado di comprensione che i neuroscienziati cognitivi hanno del funzionamento del cervello umano sul quale l’Ia è tornata nuovamente a modellarsi.
Quest’ultimo fatto ci porta a considerare una questione di metodo che è davvero interessante, perché determina un sostanziale cambiamento nella qualità della ricerca e dell’elaborazione.
Questione di metodo
Ecco di che si tratta: per molto tempo la maggior parte dei ricercatori ha ritenuto di dover “guidare” l’intelligenza artificiale, fornendole tutte le istruzioni necessarie per portare a termine qualsiasi compito.
È l’approccio classico all’Ia (noto anche come Good old fashioned ai, o Gofai), che consiste, per dirla in modo sbrigativo, nell’idea di etichettare e riversare ogni elemento utile (e idealmente il mondo intero in ogni sua regola e relazione di senso) dentro una macchina che è programmata per svolgere un compito.
È un approccio che funziona e dà buoni risultati quando si lavora con sistemi di regole e di relazioni stabili: per esempio, le regole che governano il gioco degli scacchi, o la matematica.
Ma il mondo reale è mutevole e zeppo di sfumature e ambiguità: possono essere ambigui il linguaggio, le immagini, gli eventi. E il senso di (quasi) ogni cosa può modificarsi in differenti contesti, ciascuno dei quali fa riferimento ad altri contesti ancora, in un enorme intreccio di schemi e relazioni e interpretazioni possibili.
C’è però un altro sistema, molto più flessibile, per spiegare il mondo a una macchina: insegnarle a capirlo da sola mettendola di volta in volta in grado di imparare. È il deep learning, l’apprendimento profondo. Questo avviene nel corso di un processo che per molti versi mima, appunto, i processi dell’apprendimento umano e che si basa su strati di reti neurali artificiali.
Gli strati devono essere almeno tre, e possono essere molti, molti di più.
E sì, è nella sostanza l’evoluzione dell’approccio teorizzato da Warren McCulloch e Walter Pitts nei primi anni quaranta, quando ancora la definizione “intelligenza artificiale” non era stata inventata. Ed è l’approccio che, sessant’anni dopo la delusione del Perceptron, permette, con macchine che finalmente hanno potenza e velocità adeguate a elaborare l’enorme quantità di dati disponibile, di ottenere i risultati più sorprendenti
Non è la prima volta che si rivaluta dopo decenni una soluzione o una tecnologia che si era accantonata in modo troppo sbrigativo
Nella pratica, il deep learning può funzionare in tre modi.
Si possono inserire nella macchina dati già etichettati (cioè corredati di informazioni utili a definirli), in modo che questa gradualmente “impari” a riconoscere con grande precisione gli schemi che li accomunano, e poi possa, da sola, individuare quei medesimi schemi in batterie di dati analoghi: è l’apprendimento supervisionato. Lo si impiega, per esempio, per insegnare alla macchina come classificare immagini, come identificare lo spam o come fare previsioni sugli andamenti di borsa.
Oppure si mette la macchina a confronto con una serie di dati grezzi (non etichettati) all’interno di un ambiente che questa deve esplorare, identificando schemi e relazioni e procedendo per prove ed errori. La macchina impara perché ogni sua scelta, giusta o sbagliata, viene di volta in volta “ricompensata” o “punita”. A un certo punto, la macchina avrà imparato come operare in quell’ambiente, massimizzando i premi e azzerando le punizioni. È l’apprendimento per rinforzo. Tutto sommato, è qualcosa di assai simile al “condizionamento operante” con cui lo psicologo Burrhus F. Skinner modellava, negli anni trenta, il comportamento dei topi e dei piccioni. Se si tratta di Ia il metodo serve, per esempio, per addestrare i robot a muoversi correttamente in un ambiente fisico.
Nell’apprendimento non supervisionato, infine, la macchina viene esposta a dati grezzi, e deve riconoscere autonomamente schemi e relazioni: può farlo seguendo strategie che i ricercatori stessi non sono poi in grado di ricostruire, e può identificare schemi e relazioni che sfuggono agli esseri umani. Si usa questo metodo, per esempio, per individuare tendenze non evidenti ricavando diagrammi e grafici, per classificare notizie, per la visione artificiale, o per intercettare eventi anomali (per esempio, le frodi con carte di credito).
Quest’ultima applicazione è considerata una delle aree più complesse e interessanti dell’apprendimento automatico.
Piccola nota a margine: non è la prima volta che si rivaluta dopo decenni, e in un diverso contesto, una soluzione o una tecnologia che si era accantonata in modo troppo sbrigativo. Per esempio, ai primi del novecento le auto elettriche erano molto diffuse e offrivano ottime prestazioni, ma sono state abbandonate per il più economico e (sic) “più virile” motore a scoppio. Dopo un secolo, però, a quelle si sta tornando.
Nel 2014 l’Ia si dimostra più brava degli esseri umani nel riconoscere i volti.
Nel 2015 Google lancia Deep Dream, un software capace di elaborare immagini riconoscendone e replicandone gli schemi. L’effetto è psichedelico. E poi Deep Dream sembra piazzare musi canini dappertutto. Qui sotto un’immagine pubblicata da Wired:
Nel 2016 il computer AlphaGo di Google DeepMind sconfigge Lee Sedol, campione di go, il gioco più antico (risale a oltre tremila anni fa) e complicato del mondo, in cui l’intuizione ha un ruolo predominante.
L’Ia comincia ad avere un impatto sulla vita quotidiana di tutti noi. Gli assistenti vocali come Siri, Google Assistant e Alexa diventano sempre più precisi. Si sviluppano le prime auto a guida autonoma. In campo medico, l’intelligenza artificiale serve come aiuto per la diagnosi di malattie rare, per analizzare referti, per identificare e calibrare terapie efficaci, per progettare nuovi farmaci. Si avvalgono dell’IA le previsioni meteo, e robot guidati dall’Ia si diffondono nelle fabbriche. Si sviluppano sistemi di Ia per contrastare frodi e riciclaggio, per restaurare immagini e per molti altri scopi, alcuni dei quali coperti da segreto militare.
Il 5 gennaio 2021 l’azienda OpenAi lancia Dall-e, un software capace di generare qualsiasi immagine sulla base di una breve descrizione. Hanno funzioni analoghe Stable Diffusion e Midjourney, entrambi lanciati nel 2022. Un paio di mesi dopo il lancio, un’opera generata da Midjourney vince il primo premio per il concorso di arte digitale della Colorado state fair.
Come scrive Vanni Santoni su L’Essenziale “in molti casi il risultato è indistinguibile da un’opera umana. Il tutto, per di più, avviene in pochi secondi: con un’oretta a disposizione, un bozzettista con una mezza idea in testa può generare letteralmente centinaia di immagini ad alta definizione”.
L’unico problema è la riproduzione delle mani umane: le immagini che l’Ia pesca in rete sono spesso poco dettagliate o incomplete, e oltretutto le mani appaiono in mille prospettive diverse. Così, insomma, l’Ia fa confusione e, come mostra Buzzfeed, mette le dita a casaccio.
Nel gennaio 2023 tre artiste, Sarah Andersen , Kelly McKernan e Karla Ortiz intentano una causa per violazione del copyright contro Stability Ai, Midjourney e DeviantArt, sostenendo che violano i diritti di milioni di artisti.
Intanto: nel giugno 2022 Blake Lemoine, ingegnere informatico di Google, dopo aver fatto una lunga chiacchierata con il software LamDa, una tecnologia di conversazione sviluppata dalla sua azienda, sostiene pubblicamente che l’Ia è un’entità senziente e dotata di anima. Google lo licenzia in tronco.
Il 30 novembre 2022 l’azienda californiana OpenAi lancia ChatGpt. È un software che simula conversazioni e risponde a domande, e lo fa cogliendo anche le sfumature del linguaggio umano. Ci riesce utilizzando il natural language processing, e dopo che nel sistema sono stati immessi 300 miliardi di parole.
L’accesso all’intelligenza artificiale più evoluta, e la possibilità di usarla, non è mai stato così diretto, esplicito e immediato per chiunque
ChatGpt può esprimersi (e tradurre) in 95 lingue diverse. Può scrivere articoli, messaggi e pezzi di codice e può compiere analisi di mercato. Nel febbraio 2023 viene impiegata intensivamente per comporre messaggi di san Valentino, e anche il New York Times si inserisce nella tendenza. FastCompany commenta che “in apparenza ogni mattina una nuova ricerca segnala che ChatGpt ucciderà qualcosa: posti di lavoro, seo, copywriting, Google, creatività. Ora possiamo aggiungere il romanticismo all’elenco delle sue potenziali vittime”.
Mentre per imparare a usare Midjourney ci vuole almeno una mezz’oretta e, per usarlo bene sfruttandone le potenzialità, ci vogliono più tentativi e assai più tempo (e bisogna che i prompt, cioè le istruzioni, siano in inglese) ChatGpt è immediata: basta fare il login e digitare un qualsiasi quesito inserito in una finestrella. Il software risponde in ottimo italiano, e devo dire che perfino il tono di voce (cioè, la sfumatura relazionale che i testi assumono in base alla scelta delle parole, al ritmo e alla punteggiatura) è rilassato e piacevole.
Provo a chiedere direttamente a ChatGpt se l’Ia è più a suo agio con le parole o con le immagini. Risponde che il linguaggio umano è più complesso e ambiguo e che elaborare immagini è più facile (anche se, be’, resta sempre quel problemino con la rappresentazione delle dita).
TikTok impiega nove mesi dal momento del lancio, nel 2016, per raggiungere cento milioni di utenti. A Instagram sono serviti circa due anni e mezzo per ottenere lo stesso risultato. A ChatGpt bastano due mesi: ha già circa 57 milioni di utenti a dicembre 2022, e va per i cento milioni di utenti attivi a gennaio 2023.
L’accesso all’intelligenza artificiale più evoluta, e la possibilità di usarla per fare un sacco di cose, non è mai stato così diretto, esplicito e immediato per chiunque. È ovvio che tutti ne parlino, ed è altrettanto ovvio che molti pensino a come guadagnarci sopra, e che molti altri si preoccupino delle conseguenze a breve o a lungo termine (diciamolo subito: quelle a lungo termine restano piuttosto imprevedibili).
Secondo Statista, sull’intelligenza artificiale nel 2021 si sono spesi poco meno di cento miliardi di dollari.
Agli inizi del 2023 Forbes scrive che “ChatGpt scuote il settore” e che è “difficile sottovalutare la portata e l’influenza del suo successo”, e si affretta a pubblicare i nomi delle sette tech company su cui conviene investire, per poi concludere che, dopotutto, per investire bene sull’Ia converrebbe farsi consigliare dall’Ia medesima.
In realtà, l’unico dato di fatto è che siamo realmente di fronte a un cambiamento le cui conseguenze, in termini di rischi, di benefici e di potenzialità, in buona parte ci sfuggono ancora.
Proverò a raccontare qualcosa di tutto ciò nei due prossimi articoli.
Questo è il primo di quattro articoli di Annamaria Testa dedicati all’intelligenza artificiale:
Leggi anche:
Guarda anche: