Nel giugno del 2017 Stern, una rivista liberale tedesca, ha pubblicato un articolo intitolato “Perché il tuo banchiere può salvare più vite del tuo medico”, in cui raccontava di un movimento chiamato altruismo efficace. Il pezzo parlava di Carla Zoe Cremer, una ragazza di ventidue anni cresciuta in una famiglia di sinistra in una fattoria vicino a Marburg, nell’ovest della Germania, in cui si occupava dei cavalli. Un tempo Zoe vendeva caffè equo e solidale e donava i profitti in beneficenza, gestiva un programma contro le droghe a scuola e credeva che le piccole donazioni e i comportamenti generosi potessero cambiare la vita delle persone. Ora invece indirizzava i suoi sforzi verso aiuti che, secondo lei, erano più efficaci.
Cremer aveva scoperto l’altruismo efficace attraverso un amico che studiava all’università di Oxford, nel Regno Unito. Le aveva parlato di una comunità di persone che seguivano un’etica pratica, convinte che “per costruire un mondo migliore” bisogna combinare “empatia e fatti concreti”. Questi altruisti efficaci, o Ae come si definivano, usavano la matematica per cercare di ridurre complesse scelte etiche a una serie di calcoli sul rapporto costi-benefici. Cremer aveva trovato affascinante questa filosofia. “All’epoca ero più portata a pensare all’efficacia e al rigore applicati alla vita di tutti i giorni”, mi racconta. Così aveva cominciato a frequentare gli incontri degli altruisti efficaci di Monaco di Baviera e alla fine era diventata una esponente importante del movimento in Germania.
Seguendo i consigli di Peter Singer, un filosofo che ha ispirato molti altruisti efficaci, Cremer si era impegnata a destinare il 10 per cento del suo reddito annuale a cause giuste per il resto della vita. In questo modo avrebbe ottenuto più risultati che vendendo chicchi di caffè. Mentre cercava un nuovo lavoro, era stata indirizzata verso un’associazione del movimento chiamata 80,000 Hours, “ottantamila ore”, un riferimento al tempo che una persona trascorre in media al lavoro durante la vita.
Più o meno nello stesso periodo Ben Chugg, uno studente universitario di matematica e informatica dell’università della British Columbia, in Canada, stava scoprendo l’altruismo efficace. Gli piaceva fare volontariato e l’idea di combattere la povertà nel mondo. Dopo essersi laureato, nel 2018, voleva intraprendere una carriera che fosse soddisfacente a livello sia etico sia intellettuale. Si era imbattuto in 80,000 Hours e aveva capito che l’altruismo efficace offriva criteri chiari per valutare l’impatto dei suoi sforzi di volontariato e la direzione della sua vita. Aveva cominciato a leggere le opere di Singer e William MacAskill, un giovane filosofo di Oxford considerato tra i fondatori dell’altruismo efficace. Così aveva deciso d’iscriversi a Oxford – l’epicentro del movimento, come diceva lui – e seguire un master in matematica.
Oxford è considerata la sede accademica delle persone che hanno costruito l’impalcatura intellettuale del movimento. Chugg era entrato a far parte del gruppo degli altruisti efficaci dell’università, frequentandone i seminari per capire meglio la loro filosofia. Aveva incontrato persone giovani, ambiziose ed empatiche che volevano lottare contro gli allevamenti intensivi, il riscaldamento globale e le malattie infettive. A differenza di chi faceva parte di altre associazioni studentesche, gli altruisti efficaci vedevano i loro interessi condivisi come un dovere invece che un hobby. Essere un vero Ae significava diventare vegano o almeno vegetariano. Impegnarsi a fare donazioni, se non subito almeno in futuro, e ascoltare lunghi podcast su arcane questioni di filosofia morale.
Anche Cremer è finita a Oxford. Nel 2018 è stata invitata a un colloquio di lavoro all’Alameda Research, una nuova azienda di criptovalute gestita da Sam Bankman-Fried, un giovane sostenitore dell’altruismo efficace. È volata a Oxford e ha trascorso una giornata a scambiarsi opinioni con gli altri candidati a quel posto di lavoro e a chiedersi perché nessuno le facesse domande su di lei.
Chugg pensava che le nuove priorità dell’altruismo efficace fossero moralmente discutibili e lontane dai problemi che lo avevano attirato
Invece di farsi assumere dall’azienda è tornata ai suoi studi e alla fine è diventata ricercatrice al Future of humanity institute dell’università di Oxford, che condivide la sede con altri due centri di ricerca legati all’altruismo efficace, e ha cominciato a lavorare su due temi di grande interesse per il movimento: l’intelligenza artificiale e il rischio esistenziale, cioè quello di un’estinzione degli esseri umani causata da loro stessi.
Culto tecnologico
Il gruppo di altruisti efficaci di Oxford è al centro di una rete intricata e generosamente finanziata di istituzioni che hanno attirato alcune delle persone più ricche della Silicon valley. Tra i simpatizzanti del movimento ci sono miliardari del settore tecnologico come Elon Musk, il proprietario della Tesla che di recente ha comprato Twitter; Peter Thiel, fondatore di PayPal; Dustin Moskovitz, uno dei fondatori di Facebook; oltre a noti intellettuali come lo psicologo Steven Pinker e Peter Singer, uno dei filosofi morali più importanti del mondo. Miliardari come Moskovitz finanziano gli accademici e i loro istituti, e gli accademici consigliano i governi, le agenzie di sicurezza e le grandi aziende quotate in borsa su come fare del bene. Il sito per le offerte di lavoro di 80,000 Hours, che offre incarichi presso Google, la Microsoft, il governo britannico, l’Unione europea e le Nazioni Unite, incoraggia gli altruisti efficaci a cercare di ricoprire ruoli influenti nelle sedi del potere.
Poche settimane fa la Ftx, la borsa di criptovalute fondata da Bankman-Fried, ha presentato istanza di fallimento. Si è scoperto che aveva prestato miliardi di dollari dei suoi clienti alla Alameda Research, e che alcune di quelle persone non erano in grado di recuperare i soldi. Secondo la Reuters, mancavano all’appello circa due miliardi di dollari.
Il crollo della Ftx è stato disastroso per la reputazione delle criptovalute, ma è stato anche un duro colpo per l’altruismo efficace. Bankman-Fried (che non ha voluto farsi intervistare per questo articolo) si era impegnato a dare via la maggior parte della sua ricchezza, che a un certo punto Forbes ha stimato in più di 26 miliardi di dollari. Solo nel 2022 ha fatto arrivare 130 milioni di dollari al movimento attraverso l’Ftx future fund, una fondazione che sovvenziona progetti pensati per garantire il futuro a lungo termine dell’umanità. Alcune delle figure di spicco dell’altruismo efficace, tra cui
MacAskill, ne facevano parte e si sono dimesse dopo lo scandalo, dicendo di essere “sconvolte e rattristate”. “Se la direzione della Ftx è coinvolta in una truffa, condanniamo il suo comportamento nei termini più decisi possibile”, hanno scritto. Ma la caduta di Bankman-Fried fa nascere il dubbio che la convinzione di fare del bene giustificasse alcune delle sue scelte spericolate.
Molto prima del recente fallimento, un numero consistente di altruisti efficaci aveva cominciato a mettere in dubbio la leadership del movimento e i suoi finanziatori. Alcuni, come Chugg e Cremer, si erano sentiti attratti dal gruppo di altruisti efficaci di Oxford. Chugg mi ha detto che gli Ae erano “le persone più gentili e intelligenti che avessi mai incontrato”. Ma nel corso del tempo entrambi hanno notato che l’attenzione del movimento si stava spostando. Tra gli interventi con l’impatto maggiore secondo 80,000 Hours, la lotta agli allevamenti intensivi e al cambiamento climatico, come anche il miglioramento dell’assistenza sanitaria nei paesi poveri, erano passate in secondo piano.
Émile Torres, che studia il rischio esistenziale, pensa che il longtermism sia “una delle ideologie laiche più pericolose del mondo moderno”
La comunità invece incoraggiava gli studenti a lavorare in settori di “massima priorità”. Due di questi erano teorici: “influenzare lo sviluppo dell’intelligenza artificiale” e “ridurre i rischi di una catastrofe biologica”. Altri due, “costruire l’altruismo efficace” e “condurre ricerche sulle priorità mondiali”, sembravano opportunistici. Dietro il cambiamento c’era una filosofia emergente chiamata longtermism (letteralmente “lungotermismo”), basata sull’idea che a livello sia etico sia politico il futuro lontano dovrebbe essere considerato importante almeno quanto il presente.
Chugg pensava che le nuove priorità dell’altruismo efficace fossero moralmente discutibili e lontane dai temi che lo avevano attirato all’inizio. Cremer pensava che la comunità stesse diventando sempre più antidemocratica e segreta. Chugg ha cominciato a esaminare le giustificazioni matematiche del lungoterminismo, e Cremer a mettere in discussione la pretesa dell’altruismo efficace di prevedere i rischi dell’intelligenza artificiale avanzata. Entrambi temevano che il movimento avesse preso una piega sbagliata e volevano capire cosa era successo.
Teorie da cimitero
I semi dell’altruismo efficace sono stati piantati a St Edmund Hall, uno dei college dell’università di Oxford. Un tempo i suoi giardini erano un luogo di sepoltura: qualche lapide ancora spunta dal prato, anche se le iscrizioni ormai sono illeggibili. Nel 2009 William MacAskill, all’epoca studente di filosofia, chiese a Toby Ord, un giovane ricercatore, di incontrarsi lì. Quando MacAskill ricorda quel momento, dice sempre che è successo in un cimitero. L’ambientazione prefigurava un principio centrale della loro missione: coltivare ciò che Ord chiama un “forte cosmopolitismo”, non solo tra popoli e paesi, ma tra morti, vivi e non ancora nati.
Uno dei princìpi fondamentali dell’altruismo efficace è che tutte le persone hanno lo stesso valore, indipendentemente dallo spazio e dal tempo. Una vita umana nel Regno Unito vale esattamente come un’altra nello Yemen. Una vita di oggi vale tanto quanto una del passato o del futuro. Dopo aver letto Singer, MacAskill era diventato “terribilmente preoccupato per il problema della povertà estrema”. Anche se ateo, Singer si è ispirato alla pratica della decima usata da molte religioni e ha suggerito che tutti dovremmo prevedere una “quota etica minima di donazioni”. MacAskill chiedeva come far funzionare nella pratica quest’idea. “Sul suo sito Toby aveva scritto che stava donando ‘l’importo giusto’, ma ero molto scettico sul fatto che lo facesse davvero”, avrebbe scritto in seguito. Ma Ord non è un bugiardo: dal 2020 dona almeno il 10 per cento dei suoi guadagni annuali, che ammontano a più di 147mila dollari (le donazioni più importanti sono andate a fondazioni per la sverminazione e la cura della malaria).
Nel cimitero i due uomini parlarono per ore, affrontando una questione insolita per i filosofi morali: come applicare le loro idee teoriche al mondo reale. Mesi dopo si unirono per lanciare un’organizzazione senza scopo di lucro, Giving what we can, che mirava a incoraggiare le persone a donare almeno il 10 per cento dei propri guadagni a “qualsiasi organizzazione potesse usarlo in modo più efficace per migliorare la vita degli altri”. Per descrivere il loro progetto scelsero il nome di “altruismo efficace”, che sembrava cogliere il loro obiettivo. Due anni dopo il loro primo incontro, MacAskill e Ord fondarono il Centre for effective altruism, un’organizzazione che copriva tutte le iniziative della comunità e Giving what we can ne divenne presto parte.
Oggi MacAskill ha 35 anni, occhiali scuri, capelli arruffati e un forte accento scozzese. A 28 anni è diventato professore associato a Oxford, dove teneva un corso introduttivo sull’utilitarismo, la teoria etica alla base dell’altruismo efficace. Secondo il pensiero utilitaristico, le conseguenze delle nostre azioni sono l’unica misura del bene e del male, quindi siamo moralmente tenuti a perseguire obiettivi che promuovano il bene maggiore.
Negli ultimi dieci anni MacAskill ha spiegato a persone ricche, a studenti universitari appartenenti all’élite, a dirigenti di grandi aziende e a funzionari governativi di tutto il mondo come mettere in pratica il suo pensiero. Tra le indicazioni: fare donazioni alle associazioni di beneficenza, ma solo a quelle più efficaci; chi si prende cura esclusivamente di amici e vicini deve sapere che non sta usando in modo efficace il suo tempo, perché potrebbe aiutare chi ne ha più bisogno; è inutile sprecare ore preziose a leggere notizie perché, come ha detto nel 2018, “ogni giorno i quotidiani ci mentono dicendoci ‘questa è la cosa più importante che sta succedendo in questo momento’”. MacAskill ha sostenuto che se dovesse fondare un giornale lo chiamerebbe Reality Times. I titoli dei giornali sarebbero sempre gli stessi: cinquemila bambini sono morti di malaria, diecimila testate nucleari sono pronte a partire, cento milioni di animali sono stati inutilmente torturati e uccisi. Chi perderebbe tempo a leggere notizie di politica davanti a una tale carneficina?
Obiettivi controintuitivi
In Doing good better (Guardian Faber 2015), MacAskill sostiene che la bontà può essere quantificata. Nel libro dimostra come l’utilitarismo può aiutare le persone a prendere decisioni e adatta un’unità di misura che gli economisti normalmente usano per calcolare i benefici di trattamenti sanitari come la terapia del dolore e la chirurgia salvavita: il “quality-adjusted life year” (anni di vita corretti in base alla qualità della vita, qaly). Un qaly equivale a un anno vissuto in perfetta salute. Le frazioni di qaly sono attribuite a persone che vivono nel dolore e in cattiva salute. Maggiore è la sofferenza, minore è il valore del qaly.
MacAskill applica una misura simile alle conseguenze emotive delle nostre esperienze, un parametro che chiama waly, un anno di vita corretto in base al benessere. Il Centre for effective altruism ha usato questo tipo di calcoli per misurare quanto possono essere utili le iniziative caritatevoli.
Gli altruisti efficaci mirano a qualcosa di più che a fare semplicemente del bene. Secondo loro, perdere tempo con qualcosa che non produca il bene maggiore significa causare implicitamente sofferenza, perché abbiamo alleviato meno dolore di quanto avremmo potuto fare. Come scrive MacAskill, dovremmo costantemente chiederci: “Di tutti i modi in cui potremmo rendere il mondo un posto migliore, quale sarà più efficace?”. Su Facebook gli Ae spesso si condizionano a vicenda nelle loro scelte. Conosco una donna di Washington che voleva aiutare i rifugiati afghani a integrarsi negli Stati Uniti, ma temeva che non fosse il modo più efficace di usare il suo tempo.
L’impegno a fare il bene massimo può portare gli altruisti efficaci a perseguire obiettivi che sembrano controintuitivi. In Doing good better, MacAskill si lamenta del tempo passato da giovane come operatore in una casa di cura per anziani.Pensa che qualcun altro avrebbe avuto più bisogno di quei soldi e probabilmente avrebbe fatto un lavoro migliore. Quando l’ho intervistato via email, mi ha detto: “Certamente non mi pento di aver lavorato lì. È stata una delle esperienze più formative della mia vita”. Ma secondo i valori fondamentali dell’altruismo efficace, migliorare la propria sensibilità morale può essere un uso sbagliato delle proprie risorse, non importa quanto possa arricchirci.
Visto che la capacità di una persona di fare del bene nel mondo è molto limitata, ai seguaci dell’altruismo efficace è stato spesso consigliato di guadagnare il più possibile per sostenere le buone azioni degli altri. Secondo MacAskill, un medico che lavora in un ospedale in Africa potrebbe totalizzare trecento qaly ogni anno. Ma se aprisse uno studio privato nel Regno Unito, sarebbe in grado di “guadagnare di più per donare” e salverebbe molte più vite, restando ricco.
Questo ragionamento ha spinto centinaia di persone generose, tra cui Bankman-Fried, a scegliere lavori ben retribuiti. La promessa di assoluzione rende particolarmente attraente l’altruismo efficace. Puoi essere considerato un eletto pur accumulando una grande fortuna, a patto che continui a donare, proprio come faceva la chiesa cattolica prima della riforma protestante, quando accettava soldi dai fedeli in cambio del perdono per i loro peccati. L’altruismo efficace non è una setta, ma è comunque una sorta di chiesa, che nel tempo è diventata sempre più centralizzata e controllata. Lo sostengono diversi studiosi, comprese le persone che hanno collaborato a un recente libro sull’altruismo efficace e la religione. Uno di loro si chiede se questa filosofia “non possa essere vista, in un certo senso, come un movimento quasi religioso, considerando il modo in cui condiziona la vita della gente”.
Negli ultimi due anni ho sentito molte storie di giovani ambiziosi che sono arrivati all’altruismo efficace perché volevano cambiare il mondo, ma sono rimasti delusi. Molti di quelli con cui ho parlato non volevano che citassi il loro nome, perché temevano che la comunità potesse vendicarsi riducendo i finanziamenti per le loro ricerche o limitando le loro opportunità professionali. Un portavoce del Centre for effective altruism ha detto che i timori sono infondati, e che “la collaborazione e il dialogo costruttivo sono essenziali per il libero pensiero, un valore fondamentale dell’altruismo efficace”.
Comunità esclusiva
Il disincanto è dovuto in parte al fatto che la comunità spende molte energie nella raccolta fondi per i tanti centri studi che ospitano i suoi pensatori più importanti. Open philanthropy, una fondazione che Dustin Moskovitz ha contribuito a creare, finanzia 80,000 Hours (più di dieci milioni di dollari dal 2017), il Future of humanity institute (7,6 milioni di dollari dal 2017), il Centre for effective altruism (più di trentacinque milioni di dollari dal 2017), l’Effective altruism foundation (1,4 milioni di dollari dal 2019) e il Global priorities institute (dodici milioni di dollari dal 2018). Gli stessi altruisti efficaci sono incoraggiati a donare direttamente al Centre for effective altruism, a 80,000 Hours e agli istituti collegati. La Ftx Foundation cita il Centre for effective altruism come uno dei suoi beneficiari e partner.
La circolarità della rete di finanziamenti ha reso omogenea la cultura della comunità. Molti altruisti efficaci sono maschi bianchi laureati a Oxford, Cambridge, Harvard, Stanford o Yale. Il movimento sostiene i cosiddetti specialisti dei campus che diffondono il vangelo tra gli universitari. Un sondaggio condotto tra più di 2.500 Ae nel 2019 ha rilevato che la maggior parte aveva un’età compresa tra i 25 e i 34 anni. In più del 70 per cento dei casi erano maschi e in più dell’85 per cento erano bianchi. La maggioranza era di sinistra e si dichiarava agnostica, atea o non religiosa. Quasi tutti si erano laureati o stavano per farlo.
Man mano che è cresciuta, la comunità è diventata più esclusiva. Alle conferenze, ai seminari e perfino ai picnic organizzati dal Centre for effective altruism si partecipa solo su richiesta. Gli Ae ritengono che le migliori università forniscano l’istruzione migliore, quindi anche i pensatori più efficaci.
Un’idea che ha preso piede tra gli altruisti efficaci è quella del lungoterminismo. Nel 2005 Nick Bostrom, un filosofo svedese, è salito sul palco di una conferenza Ted indossando un vestito beige stropicciato. Con voce decisa e scandendo le parole, ha detto alla platea che la morte era un fenomeno “enormemente dispendioso”. Secondo quattro studi, c’era un “grave rischio” che l’umanità non sopravvivesse al prossimo secolo. E che, se si riducesse anche solo dell’1 per cento la probabilità di un rischio di estinzione entro una generazione, si potrebbero salvare sessanta milioni di vite. Nell’arco di cento milioni di anni ci sarebbe una serie di effetti a catena. Se saremo in grado di colonizzare il resto della nostra galassia e quelle vicine, su un tale orizzonte temporale una riduzione dell’1 per cento del rischio di estinzione equivarrebbe a salvare un numero di vite pari a 1032. In questa prospettiva, nient’altro è più importante.
Quell’anno Bostrom ha fondato il Future of humanity institute di Oxford, dedicato alla riduzione del rischio di estinzione. Ha elaborato la sua teoria del lungoterminismo in un libro del 2008, in cui esortava tutti a essere “buoni antenati”, praticando “l’altruismo verso i propri discendenti”. Non alludeva al compostaggio o a smettere di guidare, ma a mitigare i rischi per l’umanità – “rischi x” nel gergo della comunità – causati da cose come l’intelligenza artificiale avanzata e il biohacking, che potrebbero spazzare via o decimare il genere umano.
Negli ultimi vent’anni il rischio esistenziale è diventato un nuovo campo di ricerca accademico: Oxford, Cambridge, Berkeley e Stanford ospitano centri dedicati a questa teoria, secondo cui il futuro dell’umanità non è mai stato così incerto perché abbiamo creato condizioni che potrebbero facilmente causare la nostra fine. Il pericolo maggiore, sosteneva Bostrom nel 2012, consiste nei progressi tecnologici che permettono di manipolare noi stessi e il nostro ambiente con conseguenze impreviste: la probabilità che si verifichi una catastrofe non è calcolabile, e le sue potenziali conseguenze devastanti.
Obbligo verso il futuro
Molti teorici del lungoterminismo pensano che l’antidoto alla minaccia della tecnologia sia più tecnologia. Padroneggiare l’intelligenza artificiale impedirà a una sua versione ostile di renderci schiavi. Credono anche che l’accelerazione tecnologica sia moralmente positiva in sé, perché consente di sfruttare l’universo per sfamare più persone. Bostrom si lamenta delle vite perse per ogni secondo di ritardo nei progressi tecnologici. In un articolo del 2003 invitava i lettori a immaginare tutta “l’energia inutilizzata, inghiottita dai buchi neri”, e tutti i soli oltre il nostro che stanno “illuminando e riscaldando stanze vuote”, perché ci mancano i mezzi per popolare i pianeti che orbitano intorno a loro. I critici del lungoterminismo sostengono che le prospettive riguardano quasi esclusivamente ciò che Karin Kuhlemann, un’avvocata e studiosa di etica allo University college di Londra, classifica come “rischi catastrofici globali eccitanti”: asteroidi, disastri nucleari e intelligenze artificiali ostili. Gli altruisti efficaci sono meno preoccupati per rischi “poco eccitanti” come il riscaldamento globale, l’erosione del suolo, la perdita di biodiversità, la pesca eccessiva, la scarsità di acqua dolce, la disoccupazione o la sottoccupazione di massa e l’instabilità economica. Questi problemi non hanno un colpevole evidente e richiedono un’azione collettiva. Gli altruisti efficaci dicono di essere preoccupati anche per questi problemi, ma aggiungono che i rischi a lungo termine sono ancora poco studiati, considerato quanto possono essere devastanti.
Gli altruisti efficaci disillusi sono infastiditi dalla crescente centralità del lungoterminismo “puro”. Chi sostiene questa teoria dice che, poiché la popolazione del futuro potrebbe essere molto più numerosa di quella di oggi, i nostri obblighi morali verso la generazione attuale sono insignificanti rispetto a quelli nei confronti delle prossime. Quindi la cosa più importante che ognuno di noi può fare è impedire che si verifichino eventi sconvolgenti.
Secondo Benjamin Todd, fondatore di 80,000 Hours, il lungoterminismo “potrebbe rivelarsi una delle teorie più importanti dell’altruismo efficace”. Ma per tante altre persone si tratta di una conclusione senza senso, perché afferma apertamente che le persone che hanno più bisogno d’aiuto contano meno di chi non è ancora nato.
I progetti dedicati alla salute globale e alla povertà raccolgono ancora la maggior parte dei finanziamenti, ma il loro numero si sta riducendo, perché la ricerca sul rischio a lungo termine attira più soldi. Nel 2017 Ae funds, l’ala filantropica del movimento, ha creato un fondo per finanziare la ricerca sui rischi esistenziali che fino a oggi ha investito più di dieci milioni di dollari in progetti su questo tema. Anche l’Ftx future fund è esplicitamente dedicato alla promozione di cause legate al lungoterminismo.
Creare valore
Nel 2019 Bostrom è salito ancora una volta su un palco per spiegare “come la civiltà potrebbe autodistruggersi”, creando superintelligenze meccaniche usate male, armi nucleari incontrollate e agenti patogeni geneticamente modificati. Per mitigare questi rischi e “stabilizzare il mondo”, potrebbe essere impiegata una “polizia preventiva” che contrasti persone pericolose prima che possano agire. “Questo richiederebbe una sorveglianza onnipresente. Tutti sarebbero continuamente monitorati”, ha detto Bostrom. Chris Anderson, a capo delle conferenze Ted, ha replicato: “Non mi sembra che l’idea della sorveglianza di massa sia molto popolare in questo momento”. Il pubblico ha riso, ma non sembrava che Bostrom stesse scherzando.
Questa idea è diffusa in tutto il mondo dell’altruismo efficace. Nel 2013 Nick Beckstead, amministratore delegato della Ftx foundation, ha scritto nella sua tesi di dottorato: “Ora mi sembra più plausibile che, a parità di condizioni, salvare una vita in un paese ricco sia sostanzialmente più importante che salvarne una in un paese povero”. Questo perché la vita salvata nel paese ricco potenzialmente avrebbe più possibilità di creare valore nel lungo termine e salvare a sua volta altre vite (Beckstead non ha risposto alla richiesta di essere intervistato e si è dimesso dalla Ftx foundation a metà novembre).
Émile Torres, uno dei maggiori critici dell’altruismo efficace, pensa che il lungoterminismo sia “una delle ideologie laiche più pericolose del mondo moderno”. Torres, che studia il rischio esistenziale, è entrato a far parte della comunità intorno al 2015. “All’inizio ero innamorato dell’altruismo efficace. Chi non vorrebbe fare del bene nel modo migliore?”. Ma con il passare del tempo ha trovato sempre più preoccupante l’interpretazione ristretta del lungoterminismo. Quando ha annunciato su Facebook l’intenzione di partecipare a un documentario sul rischio esistenziale, il Centre for effective altruism gli ha immediatamente inviato una lista di argomenti di cui parlare. I laeder del movimento si comportano spesso come se stessero portando avanti una campagna di pubbliche relazioni invece di un’indagine filosofica.
MacAskill ha suggerito di creare “assemblee di cittadini con il mandato di rappresentare gli interessi delle generazioni future”
Secondo gli altruisti efficaci l’impegno pubblico è pericoloso. Parlando delle istruzioni per assemblare armi letali, Bostrom ha sottolineato i “rischi dell’informazione”, ma alcuni altruisti efficaci oggi usano lo stesso linguaggio nei confronti di quella che considerano cattiva stampa. Gli altruisti efficaci dicono che bisogna evitare “i rischi per la reputazione” del loro movimento e assicurarsi che la loro “immagine” sia sempre positiva. Nel suo rapporto del 2020, il Centre for effective altruism ha registrato tutti i 137 “casi di pubbliche relazioni” gestiti quell’anno: “Sapevamo del 78 per cento delle interviste prima che si svolgessero. Prima ne veniamo a conoscenza, più possiamo dare una mano a mitigare i rischi”. Sottolinea anche i progressi della squadra di pubbliche relazioni nel monitorare gli “attori rischiosi”: persone che potrebbero danneggiare l’immagine del movimento.
Sistema arbitrario
Nel 2019, quando stava facendo le sue ricerche presso il Future of humanity institute, Cremer ha cominciato a temere che quell’isolamento stesse paralizzando la capacità di aiutare le persone. Ne ha parlato con alcuni amici del movimento, molti dei quali condividevano il timore che la segretezza e la deferenza alla gerarchia avrebbero portato all’omologazione del pensiero. Ma la maggior parte di loro non era disposta a dirlo in pubblico. Così ha cercato di fare la domanda nel modo più delicato possibile, con un post sul forum online Effective altruism.
Sperava che il suo articolo, pubblicato nel luglio 2020, avrebbe portato gli altruisti efficaci a riflettere. “Volevo dargli una possibilità”, dice. Quell’anno il suo post è diventato rapidamente uno dei più letti sul forum. Ma non è cambiato niente. A quel punto Cremer ha smesso di definirsi una altruista efficace.
Chugg ha cominciato a cambiare idea per via di un saggio sul lungoterminismo pubblicato da Hilary Greaves e MacAskill nel 2019. Nel 2021 una versione aggiornata del testo ha rivisto al ribasso la stima della futura popolazione umana di diversi ordini di grandezza. Per Chugg questo dimostrava il fatto che le stime erano sempre state arbitrarie.
“Proprio come l’astrologia ci promette che ‘la lotta è nel nostro futuro’, un’idea che quindi non può mai essere confutata, anche chi crede nel lungoterminismo può semplicemente affermare che ci sarà un numero impressionante di persone in futuro, impedendo qualsiasi controargomentazione”, ha scritto in un post sul forum. Questo è importante, mi ha detto Chugg, perché “significa estrarre numeri dal cappello e confrontarli con la possibilità di salvare i bambini di oggi dalla malaria”.
Per avere un aiuto sulla matematica usata dai teorici del lungoterminismo, Chugg si è rivolto a Vaden Masrani, un amico che studia apprendimento automatico all’università della British Columbia. Masrani, che non è un altruista efficace, ha concluso che i calcoli del movimento non avevano una base concreta, e ha notato fino a che punto i partecipanti al forum Effective altruism avevano già adottato il lungoterminismo: “Gli viene insegnato a fidarsi delle equazioni più che delle loro intuizioni morali. È da sociopatici”. I filosofi del lungo termine usavano le equazioni matematiche come stratagemma retorico, ha detto, per lasciare i lettori “storditi, confusi e disorientati”.
I calcoli di Masrani hanno contribuito a convincere Chugg che l’altruismo efficace si era allontanato dai valori che lo avevano attirato cinque anni prima: sembrava ignorare la ragione, non usarla. “Se mi dai un numero maggiore di quello di ieri”, dice, “puoi convincermi che oggi un’invasione aliena è la cosa più importante di cui dovremmo preoccuparci, mentre domani sarà l’intelligenza artificiale e il giorno dopo l’esaurimento di alcune risorse naturali”.
La scommessa
Gli altruisti efficaci sono conviti che salveranno l’umanità. In una poesia pubblicata sul suo sito personale, Bostrom immagina sé stesso e i suoi colleghi come supereroi che evitano disastri futuri: “Di giorno un professore in tweed / di sera un supereroe / che vola nella notte / con il mantello svolazzante / per combattere i malvagi e impedire catastrofi”.
MacAskill ha paragonato gli altruisti efficaci ai traumatologi, intenti a valutare le richieste delle persone che hanno bisogno di aiuto. Eppure questi filosofi e i loro sostenitori a volte sembrano avere molto più in comune con i periti assicurativi che si presentano sul luogo di un incidente aereo per dare un prezzo ai morti e ai feriti. La differenza è che, invece di valutare i disastri aerei, i filosofi del lungoterminismo evocano crisi immaginarie e calcolano preventivamente per chi dovremmo piangere, chi potremmo ancora salvare e chi dovremmo sacrificare. Gli altruisti efficaci stanno cercando di diffondere le loro idee nei circoli politici e militari su entrambe le sponde dell’oceano Atlantico. Bostrom è stato consulente della Cia, della Commissione europea e del comitato di bioetica della presidenza degli Stati Uniti. Toby Ord lo è stato del primo ministro britannico e dell’Organizzazione mondiale della sanità. Recentemente ha lavorato con le Nazioni Unite sul rischio di catastrofi globali e le generazioni future.
Il lungoterminismo non scomparirà presto, anche se i suoi parametri stanno cambiando. Ord, MacAskill e Greaves mi hanno detto che stanno ancora cercando di comprendere le sue implicazioni. Sviluppano nuove idee continuamente. In un recente articolo, MacAskill ha suggerito di creare “assemblee permanenti di cittadini con l’esplicito mandato di rappresentare gli interessi delle generazioni future”. Il suo ultimo libro, What we owe the future (Basic Books 2022), punta a spiegare il lungoterminismo all’opinione pubblica.
L’autore sostiene che le persone possono contribuire a garantire il lontano futuro prendendo decisioni “a forte impatto”, come donare a organizzazioni non profit “efficaci”, essere politicamente attive, “diffondere buone idee” e “avere figli”.
Secondo Amy Berg, docente di filosofia all’Oberlin college in Ohio, negli Stati Uniti, che ha studiato l’altruismo efficace e i movimenti simili, la visione di MacAskill è “moralmente inerte”: dimostra quanto questa scuola di pensiero si sia allontanata dal suo spirito originale per andare verso la promozione di ricerche speculative e costose. “Il punto non è più cosa posso fare come persona ma come i ricchi possono essere coinvolti nel progetto’”, dice Berg.
Alcuni segnali fanno pensare che ormai queste idee siano messe in discussione anche ai massimi livelli. In un’email, MacAskill mi ha detto che “il lungoterminismo è la teoria secondo la quale avere un impatto positivo sul futuro a lungo termine dovrebbe essere una delle priorità del nostro tempo”, ma ha aggiunto che continua a essere “molto meno sicuro sul lungoterminismo puro” e che le persone spesso fraintendono le sue implicazioni. “Per esempio, alcuni sostengono che un lungoterminismo puro giustifica il male di oggi, ma questo è semplicemente falso”.
Qualche settimana fa Cremer ha visto l’Alameda Research, l’azienda per cui avrebbe potuto lavorare, implodere sulla scena mondiale. Bankman-Fried ha perso quasi tutta la sua ricchezza, impedendo a molti dei fondi di altruismo efficace che sosteneva di mantenere i propri impegni.
Chi lo criticava si è affrettato a collegare il sostegno di Bankman-Fried all’altruismo efficace con i suoi grossolani errori di calcolo finanziario. “L’altruismo efficace implica un’enfasi sul ‘lungo termine’, che può essere letta come una scusa per le scorciatoie di oggi, purché ci si impegni a migliorare il domani”, ha scritto David Morris su CoinDesk, un sito web sulle valute digitali. Kemp dice di aver provato un certo sollievo per il fatto che la Ftx fosse implosa ora e non più tardi, quando avrebbe fatto molti più danni finanziari e politici. “Spero che questo momento critico costringa l’altruismo efficace a riformarsi”, dice. “Dovrebbe smettere di giocare con il fuoco e di cercare di accumulare soldi e potere”.
Bankman-Fried una volta ha detto di essere entrato nel mondo delle criptovalute solo per guadagnare il più rapidamente possibile e finanziare gli obiettivi principali dell’altruismo efficace. Era un sostenitore del lungoterminismo, in cui gli obblighi verso un futuro probabile superano quelli verso il presente.
L’altruismo efficace è in definitiva un gioco d’azzardo. Bankman-Fried ha fatto la sua scommessa. Per ora ha perso. ◆ bt
◆ L’altruismo efficace è una teoria elaborata a partire dal 2009 da William MacAskill, all’epoca studente di filosofia dell’università di Oxford. Negli ultimi anni è stata promossa da alcune delle persone più ricche del mondo, come il proprietario della Tesla e di Twitter Elon Musk. Si basa sull’idea di usare metodi scientifici per determinare il modo migliore di fare del bene, e sostiene che a livello etico e politico il lontano futuro dovrebbe essere considerato importante tanto quanto il presente (longtermism). Questa teoria è stata criticata da alcuni commentatori di sinistra. Sul New Statesman Paris Marx ha scritto che l’altruismo efficace “è vantaggioso per i ricchi, secondo i quali non dovremmo tassare i loro patrimoni in continua espansione, anche se le disuguaglianze raggiungono livelli record e cresce il numero di persone che non riescono a vivere dignitosamente. Gli altruisti efficaci sostengono che i ricchi devono conservare le loro fortune in modo da poterne donare una parte a organizzazioni che potrebbero rendere il mondo un posto migliore, ma senza minacciare i patrimoni o il potere dei miliardari”. Non c’è dubbio, scrive Marx, che dobbiamo riconsiderare le strutture sociali ed economiche che sono alla base di una serie di crisi sociali, economiche e ambientali. “Ma la soluzione a questi problemi non si trova nella pericolosa filosofia di MacAskill. Il longtermism è un sogno tecnocratico che pretende di dare a persone molto ricche la capacità di pianificare il futuro lontano dell’umanità secondo i loro capricci personali”.
◆ Il 12 dicembre 2022 Sam Bankman-Fried, fondatore ed ex amministratore delegato della piattaforma di scambio di criptovalute Ftx, è stato arrestato alle Bahamas. Bankman-Fried è anche uno dei principali sostenitori negli Stati Uniti della filosofia dell’altruismo efficace. Un tribunale statunitense aveva emesso un mandato d’arresto nei suoi confronti, accusandolo di avere usato i soldi depositati dai clienti della Ftx per finanziare l’Alameda Research, società che si occupa di operazioni finanziarie, truffando investitori e finanziatori che gli avevano affidato più di 1,8 miliardi di dollari. Reuters, The New York Times
Linda Kinstler è una giornalista e accademica statunitense. Collabora con 1843 magazine, la rivista online dell’Economist.
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it
Questo articolo è uscito sul numero 1491 di Internazionale, a pagina 64. Compra questo numero | Abbonati