Salvare prima i ricchi

In Atlas Shrugged – semplifico – il geniale inventore e filosofo John Galt diventa il capo di una società segreta formata da ingegneri e imprenditori frustrati sebbene milionari (è uscito nel 1957) in lotta contro lo stato egualitario e burocratico. Dopo lunghe, lunghissime, peripezie Galt e seguaci s’apprestano a rovesciare il governo degli incompetenti e a costruire un mondo migliore.

Incipit e refrain di Atlas Shrugged, fonte

Per certi tecnocrati e politici statunitensi, il romanzo di Ayn Rand denunciava il “collettivismo” del New Deal e annunciava le nefandezze del Partito democratico, complice dei sindacati nel distruggere il capitalismo, l’industria e la creatività degli inventori geniali, individualisti e utilitaristi (semplifico).

Fino a dieci-quindici anni fa, i nuovi John Galt sembravano essere i leader del transumanesimo. Oggi però, nelle università, nella finanza, nell’industria e in particolare nella Silicon Valley sono stati superati dai fautori di un’ideologia rivale: il “long-termism” e la sua versione più visibile e moderata detta “altruismo efficace”.

Il “long-termism” considera il futuro dell’umanità da un punto di vista galattico. Siccome i ricchi tanto odiati e dileggiati, poverini, producono oggi più innovazione utile alla felicità della maggioranza della popolazione mondiale – cioè valore – dei poveri, e lo faranno nelle prossime decine di millenni (e più), i long-termist devono innanzitutto dedicarsi ad arricchirsi e moltiplicarsi. Poi a investire i guadagni nella conquista di altri pianeti e nella produzione di umani virtuali e autoreplicanti a miliardi, la cui intelligenza artificiale collettiva risolverà ogni problema dei non virtuali che, grazie ai suddetti investimenti, i long-termist avranno salvato dall’estinzione.

Mica ci riuscirebbero i poveri.

Come altri filantropi esentasse o quasi, nel frattempo i ricchi long-termist praticano l’altruismo efficace: finanziano borse di studio, cattedre, istituti di ricerca, e fondazioni che propagano le loro idee. Edulcorate: la visione galattica rischiando di essere presa per fantascienza dalla plebe stracciona che non potrà permettersi nemmeno un biglietto di sola andata per Marte.

AOC al Met Dress Gala, settembre 2021, AJ x Twitter

Le cause ritenute degne di fondi a breve termine sono in parte quelle della filantropia tradizionale (e dello stato sociale dov’esiste da Bismarck in poi) perché l’ispiratore iniziale dell’altruismo efficace è stato il filosofo Peter Singer, oggi fra i suoi critici: diritti delle donne e degli animali, all’educazione e alla salute (compresa l’estensione della durata di una vita sana), tutela dell’ambiente, riduzione della povertà e delle disuguaglianze.

La parte più consistente dei $4-5 miliardi distribuiti sui 46 disponibili (“committed”) tra il 2015 e il 2021 è andata alla ricerca su come rendere l’altruismo sempre efficace, svolta da gruppi come Giving What We Can, GiveWell, 80,000 Hours (!) e simili. E alle ricerche di soluzioni etiche e tecnologiche per evitare i rischi “esistenziali”, cioè di estinzione dell’H. sapiens, durante catastrofi future. Come quelle svolte dal MIRI, l’ex Singularity Institute un tempo dei transumanisti, dal Future of Humanity Institute, dal Global Priorities Institute a Oxford e da affiliati in altre università.

Razionali ma individualisti, sia nel proprio forum che nelle conferenze annuali “Effective Altruism Global” i long-termist dissentono sulle priorità “basate sulla scienza” meritevoli di altruismo effettivo a breve, medio e lungo termine.

Finora hanno seguito una manciata di John Galt – di cui Nick Bostrom transfuga del transumanesimo che a Oxford dirige il Future of Humanity Inst. – tutti filosofi e di età decrescente.

L’ultimo è William MacAskill, giovane professore associato all’università di Oxford, molto apprezzato da Bill Gates, Peter Thiel, Elon Musk et al. E’ sovvenzionato soprattutto da Sam Bankman-Fried, il più giovane e mediatico dei finanzieri in criptovalute, miliardario fino a poche settimane fa.

Spese promozionali

Decine di siti web in varie lingue, italiano compreso, diffondono il pensiero dei nuovi John Galt e dall’aspetto mi sembrano curati da professionisti. Non so se sia merito di Bankman-Fried, comunque l’ultimo libro di MacAskill, What we Owe to Our Future, sui colossali benefici dell’altruismo efficace per l’umanità futura sia virtuale sia in carne e ossa, è stato lanciato in agosto con una campagna di pubbliche relazioni da $10 milioni. Nei media anglo-sassoni ha avuto molto più spazio sui media del precedente un po’ banalotto (nota) sullo stesso tema.

Ci sono stati estratti e presentazioni di MacAskill sul New York Times, Foreign Affairs, New Yorker e alla BBC. Fra le recensioni, il Guardian lo trova “thrilling”, il New York Times e Time sono entusiasti. Questa volta però sono uscite anche delle critiche:

Nota

L’AE non è una novità, ne parlava già il fondatore della Croce Rossa. In tutte le Ong che conosco si discute di dove e quando destinare soldi, tempo e personale partendo dagli stessi criteri “scoperti” da MacAskill durante le proprie ricerche sull’etica del dono.

In pratica non è facile valutare differenze nel tempo in situazioni che continuano a cambiare, quasi sempre in peggio negli ultimi anni. Organizzazioni internazionali – Commissione Europea, Banca Mondiale ecc. – e quasi tutte le grandi fondazioni impongono dei “benchmark”, delle misure spesso sensate, ma a volte semplicistiche o preconcette, dei progressi compiuti durante e alla fine di un progetto. Nella mia (limitata) esperienza in Action Aid, i benchmark si possono contestare e sostituire con valutazioni meno miopi.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: