Nel 2019 gli scienziati del Massachusetts institute of technology (Mit) hanno fatto qualcosa d’insolito nel campo della medicina moderna: hanno trovato un nuovo antibiotico, l’alicina. A maggio del 2023 un secondo team ne ha trovato un altro, l’abaucina. Quello che contraddistingue questi composti non è solo il loro potenziale uso contro due dei più pericolosi batteri resistenti agli antibiotici, ma anche il modo in cui sono stati individuati.
In entrambi i casi i ricercatori hanno usato un modello basato sull’intelligenza artificiale (ia) per cercare tra milioni di composti quelli che avrebbero funzionato meglio contro ciascun “superbatterio”. Il modello era stato addestrato sulla struttura chimica di migliaia di antibiotici conosciuti e su quanto avevano funzionato contro quei batteri in laboratorio. Durante l’addestramento il modello aveva scoperto il legame tra la loro struttura chimica e l’efficacia contro i batteri. Una volta che l’ia aveva stilato la sua lista di candidati, gli scienziati li hanno testati in laboratorio e hanno individuato gli antibiotici. Se scoprire nuovi farmaci è come cercare un ago in un pagliaio, dice Regina Barzilay, un’informatica dell’Mit che ha contribuito a scoprire l’abaucina e l’alicina, l’intelligenza artificiale funziona come un metal detector. Per portare i farmaci candidati dal laboratorio alla pratica clinica ci vorranno anni di sperimentazioni. Ma non c’è dubbio che l’ia ha accelerato la parte iniziale del processo, che si basa su tentativi ed errori. Ha spostato i limiti del possibile, afferma Barzilay. Con l’ia “le domande che ci faremo in futuro saranno molto diverse da quelle che ci facciamo oggi”.
I ricercatori che affrontano molti dei problemi più complicati e importanti del mondo – dalle previsioni meteo alla ricerca di nuovi materiali per la fabbricazione di batterie e pannelli solari fino al controllo delle reazioni di fusione nucleare – si stanno rivolgendo all’ia per accelerare i loro progressi.
Il potenziale è enorme. “L’ia potrebbe inaugurare un nuovo rinascimento delle scoperte, agendo da moltiplicatore dell’ingegno umano”, sostiene Demis Hassabis, cofondatore di Google DeepMind, un laboratorio sull’ia con sede a Londra. Hassabis paragona l’intelligenza artificiale al telescopio, che ha consentito agli scienziati di vedere più lontano e comprendere meglio rispetto alle osservazioni a occhio nudo.
Sebbene faccia parte degli strumenti scientifici fin dagli anni sessanta, per molto tempo l’ia è rimasta confinata all’interno di discipline in cui gli specialisti erano già esperti di programmazione, come la fisica delle particelle e la matematica. Ma con l’aumento del deep learning (apprendimento profondo), oggi più del 99 per cento dei campi di ricerca produce risultati grazie all’ia, sostiene l’agenzia scientifica australiana Csiro. “È l’effetto della democratizzazione”, afferma Mark Girolami dell’Alan Turing institute di Londra. Quello che prima richiedeva una laurea in informatica e la conoscenza di complessi linguaggi di programmazione oggi si può fare con strumenti intuitivi, spesso attivati con una domanda a ChatGpt, il _ chatbot _(un software che simula la conversazione umana) della OpenAi. In questo modo gli scienziati hanno facile accesso a un ostinato assistente sovrumano che risolve equazioni e vaglia enormi quantità di dati per cercare schemi ricorrenti o correlazioni.
Nella scienza dei materiali, per esempio, il problema è simile a quello dei farmaci: esiste un numero incalcolabile di possibili composti. Quando i ricercatori dell’università di Liverpool volevano trovare nuovi materiali che avessero le proprietà necessarie per costruire batterie migliori, hanno usato una rete neurale artificiale per vagliare i duecentomila composti cristallini stabili contenuti nell’Inorganic crystal structure database, il più grande archivio al mondo di queste strutture. L’ia ha prima appreso le principali proprietà fisiche e chimiche che il materiale avrebbe dovuto possedere e ha applicato quelle condizioni alla ricerca. Così ha ridotto da migliaia a cinque il numero di candidati da sottoporre agli scienziati per i test in laboratorio, facendo risparmiare tempo e denaro. Il candidato finale, un materiale che combina litio, stagno, zolfo e cloro, era sconosciuto, anche se è presto per dire se funzionerà o meno a livello commerciale. Ma i ricercatori stanno usando questo metodo per scoprire altri tipi di nuovi materiali.
Sbrogliare la matassa
L’intelligenza artificiale può anche essere usata per fare previsioni. Il modo in cui le proteine si attorcigliano dopo essere state prodotte in una cellula è fondamentale per la loro attività. Gli scienziati non sanno ancora come si ripiegano. Ma nel 2021 Google DeepMind ha sviluppato AlphaFold, un modello che ha imparato da solo a prevedere la struttura di una proteina a partire dalla sua sequenza di amminoacidi. Da allora il software ha prodotto un database di 200 milioni di possibili strutture proteiche, che è già stato usato da 1,2 milioni di ricercatori. Per esempio, Matthew Higgins, un biochimico dell’università di Oxford, ha usato AlphaFold per scoprire la forma di una proteina delle zanzare, fondamentale per il parassita della malaria che spesso questi insetti ospitano. È stato quindi in grado di combinare le previsioni del modello per capire quali parti della proteina sarebbero state il bersaglio più facile per un farmaco. Un altro team ha usato AlphaFold per scoprire in appena trenta giorni la struttura di una proteina che influisce sul modo in cui prolifera un certo tipo di cancro al fegato, aprendo così la strada alla progettazione di un nuovo trattamento mirato.
AlphaFold ha anche contribuito alla comprensione di altri aspetti della biologia. Il nucleo di una cellula, per esempio, è dotato di porte per far entrare gli elementi necessari a produrre le proteine. Fino a qualche anno fa gli scienziati sapevano che queste porte esistevano, ma conoscevano poco la loro struttura. Grazie ad AlphaFold sono riusciti a ricostruirla, favorendo la comprensione dei meccanismi interni della cellula. “Non capiamo bene come abbia fatto l’ia ad arrivare a quella struttura”, afferma Pushmeet Kohli, uno dei creatori di AlphaFold che ora dirige il team “Ia per la scienza” di Google DeepMind. “Ma una volta compresa la struttura, abbiamo una base su cui l’intera comunità scientifica può lavorare”.
L’ia inoltre si sta rivelando utile per accelerare alcune complesse simulazioni al computer. I modelli meteorologici, per esempio, si basano su equazioni matematiche che descrivono lo stato dell’atmosfera terrestre in un dato momento. I supercomputer che prevedono il meteo, però, sono costosi, consumano molta energia e impiegano molto tempo per fare i loro calcoli. E i modelli devono essere applicati più volte per stare al passo con il costante flusso di dati provenienti dalle stazioni meteorologiche di tutto il mondo.
I climatologi e le aziende private stanno quindi cominciando a usare l’apprendimento automatico per accelerare il processo. Pangu-Weather, dell’azienda cinese Huawei, è in grado di fare previsioni di una settimana migliaia di volte più velocemente e in modo più economico rispetto agli standard attuali, senza perdere accuratezza. FourCastNet, della statunitense Nvidia, può generare previsioni in meno di due secondi ed è il primo modello di ia a predire la distribuzione della pioggia con un’elevata precisione, importante per anticipare disastri naturali come le inondazioni improvvise.
Questi due modelli sono addestrati per fare previsioni meteo apprendendo da dati basati sull’osservazione o dai risultati delle simulazioni del supercomputer. Ed è solo l’inizio: Nvidia ha già annunciato di voler costruire una copia digitale della Terra, chiamata “Earth 2”, che potrebbe prevedere il cambiamento climatico nelle varie regioni con decenni di anticipo.
Laboratori autonomi
Anche i fisici che vorrebbero sfruttare l’energia della fusione nucleare stanno usando l’intelligenza artificiale per controllare le loro complesse apparecchiature. Un tipo di ricerca sulla fusione prevede la creazione di un plasma (un gas surriscaldato ed elettricamente carico) d’idrogeno all’interno di un contenitore a forma di ciambella chiamato tokamak. Quando la temperatura è sufficientemente elevata, intorno ai cento milioni di gradi, le particelle del plasma cominciano a fondersi e a rilasciare energia. Ma se il plasma tocca le pareti del tokamak si raffredda e smette di funzionare, quindi il gas viene imprigionato all’interno di una gabbia magnetica. Trovare la giusta configurazione dei campi magnetici è estremamente difficile, e controllarla richiede l’elaborazione di una serie di equazioni matematiche per prevedere il comportamento del plasma e apportare migliaia di piccoli aggiustamenti al secondo su una decina di bobine magnetiche diverse. Un sistema di controllo basato sull’ia costruito dagli scienziati di Google DeepMind e dell’Epfl di Losanna, in Svizzera, ha invece permesso di testare diverse configurazioni del plasma con una simulazione al computer, e poi ha scoperto il modo migliore per ottenerle.
Un altro settore interessante è l’automazione degli esperimenti e delle attività di laboratorio. I “laboratori autonomi” possono pianificare un esperimento, eseguirlo usando un braccio robotico e poi analizzare i risultati. L’automazione può rendere mille volte più veloce la scoperta di nuovi composti o la ricerca del modo migliore per produrre quelli esistenti.
L’ia generativa, resa famosa dall’uscita di ChatGpt nel 2022, ha due impieghi scientifici principali. Innanzitutto può essere usata per generare dati. I modelli a “super risoluzione” possono trasformare immagini di bassa qualità ottenute al microscopio elettronico in immagini ad alta risoluzione che altrimenti sarebbero troppo costose da ottenere. L’ia confronta una piccola area di un materiale o di un campione biologico ad alta risoluzione con lo stesso oggetto a una risoluzione inferiore. Impara la differenza e può quindi passare da una all’altra.
E proprio come un grande modello linguistico (llm) può generare frasi corrette scegliendo la parola migliore per completare una sequenza, i modelli molecolari generativi sono in grado di costruire molecole atomo per atomo, legame per legame. Gli llm usano un mix di statistiche autoapprese e migliaia di miliardi di parole tratte da testi raccolti su internet per scrivere in un modo che imita plausibilmente quello di un essere umano. Addestrati su ampi archivi di farmaci conosciuti e delle loro proprietà, i modelli per la progettazione molecolare possono capire quali strutture molecolari hanno maggiore probabilità di fare determinate cose e costruirle. La Verseon, un’azienda farmaceutica californiana, ha creato in questo modo alcuni possibili farmaci: molti sono ora in fase di sperimentazione sugli animali e uno, un anticoagulante di precisione, è nella prima fase di sperimentazione clinica. Come i nuovi antibiotici e i materiali per le batterie individuati dall’ia, anche le sostanze chimiche progettate dagli algoritmi dovranno essere sottoposte alle consuete prove nel mondo reale per valutare la loro efficacia.
Un uso più futuristico degli llm è stato suggerito da Igor Grossmann, uno psicologo dell’università di Waterloo, in Canada. Se un modello potesse esaminare discorsi reali (o inventati) che rispecchiano quelli dei partecipanti umani a una ricerca, potrebbe sostituire i focus group. Il modello potrebbe essere addestrato ad assumere diverse personalità e il loro comportamento usato per simulare esperimenti, i cui risultati potrebbero essere successivamente confermati su soggetti umani.
Gli llm stanno già rendendo più efficienti gli scienziati. Secondo GitHub strumenti come Copilot possono accelerare del 55 per cento la scrittura di software. Per tutti gli scienziati leggere la ricerca di base su un argomento prima di cominciare un progetto può essere un compito lungo e difficile: la letteratura scientifica moderna è troppo vasta per una sola persona. Elicit, uno strumento online gratuito creato da Ought, un laboratorio di ricerca statunitense senza scopo di lucro, può usare un modello linguistico per setacciare una montagna di testi e riassumere le scoperte più importanti molto più velocemente di qualsiasi essere umano. È già usato da studenti e scienziati più giovani, che lo trovano utile per citare articoli o per definire la direzione di una ricerca.
Gli algoritmi possono anche aiutare a trovare informazioni strutturate, come tutti gli esperimenti condotti usando un certo farmaco, estraendole da milioni di documenti.
Può setacciare una montagna di testi e riassumere le scoperte principali
Con l’ia si potrebbe anche ampliare l’accesso alla conoscenza all’interno delle varie discipline. Ogni rilevatore del Large hadron collider del Cern di Ginevra richiede operatori e analisti specializzati. Combinare e confrontare i dati ricavati dai vari gruppi è impossibile senza che i fisici di ciascun rilevatore si riuniscano per condividere competenze e informazioni. Questo non è sempre possibile per i fisici teorici che desiderano testare rapidamente nuove idee. Miguel Arratia, dell’università della California a Riverside, ha quindi proposto di usare l’ia per integrare le misurazioni emerse da esperimenti di fisica fondamentale (e perfino da osservazioni cosmologiche) in modo da permettere ai fisici teorici di combinare e riutilizzare rapidamente i dati nei propri esperimenti.
Verso l’orizzonte
I modelli hanno già dimostrato di essere in grado di elaborare dati e di automatizzare i calcoli e le attività di laboratorio. Ma Girolami avverte che, anche se l’intelligenza artificiale potrebbe aiutare gli scienziati a colmare le loro lacune, non riesce ancora a spingersi oltre i limiti di ciò che è già noto. Questi sistemi sono abili nell’interpolazione, cioè nel collegare i punti, ma meno nell’estrapolazione, cioè nell’immaginare quale potrebbe essere il punto successivo.
Ci sono alcuni problemi che nemmeno i migliori sistemi sono ancora in grado di risolvere. AlphaFold, per esempio, non riconosce la forma di tutte le proteine. Jane Dyson, una biologa dello Scripps research institute di La Jolla, in California, dice che per le proteine “disordinate”, particolarmente rilevanti per la sua ricerca, le previsioni dell’ia sono per lo più inutili. “Non è una rivoluzione che renderà superflui tutti i nostri scienziati”. E AlphaFold non spiega ancora perché le proteine si ripiegano in quello specifico modo.
Nonostante questi limiti, i biologi ritengono che AlphaFold abbia comunque reso il loro lavoro più efficiente. Il database che contiene le previsioni di AlphaFold consente agli scienziati di intuire la probabile struttura di una proteina in pochi secondi, risparmiando anni e decine di milioni di dollari.
La possibilità di velocizzare la ricerca e la scoperta scientifica è un’ottima prospettiva. In un recente rapporto sull’ia nella scienza l’Organizzazione per la cooperazione e lo sviluppo economico (Ocse), che riunisce molti dei paesi più ricchi del mondo, afferma che “sebbene l’ia stia penetrando in tutti i settori della scienza, non ha ancora espresso a pieno le sue potenzialità”. Il vantaggio finale, conclude, potrebbe essere enorme: “Questo potrebbe essere il più proficuo fra tutti gli usi di questa tecnologia”.
Se l’intelligenza artificiale riuscisse ad aumentare la produttività della ricerca, avremmo trovato il “moltiplicatore dell’ingegno umano” previsto dal dottor Hassabis. Ma l’ia ha potenzialità ancora più grandi: proprio come i telescopi e i microscopi hanno permesso agli scienziati di vedere più cose, i modelli probabilistici basati sui dati gli consentiranno di comprendere meglio i sistemi complessi.
In campi come la climatologia e la biologia strutturale gli scienziati sanno che esistono processi complicati, ma finora hanno cercato di comprenderli usando regole, equazioni e simulazioni top-down, cioè dall’alto verso il basso.
L’ia può invece aiutarli ad affrontare i problemi dal basso verso l’alto: prima raccogliendo molti dati, e poi usando gli algoritmi per elaborare regole, modelli ed equazioni e arrivare alla comprensione scientifica.
Se negli ultimi anni gli scienziati hanno immerso i piedi nelle acque dell’intelligenza artificiale, a partire dal prossimo decennio arriverà il momento in cui dovranno tuffarsi e nuotare verso l’orizzonte. ◆ bt
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it
Questo articolo è uscito sul numero 1532 di Internazionale, a pagina 44. Compra questo numero | Abbonati