5697575   

Questo libro, scritto da un fisico, discute le idee e i concetti che sono alla base di quel pezzo della teoria economica generalmente chiamata neoclassica – fondamento della dottrina neoliberista – che è a quanto pare quella culturalmente e politicamente dominante in questi tempi difficili. Potrebbe sembrare curioso che un fisico, il cui oggetto di studio è usualmente rappresentato da atomi, molecole, pianeti o galassie, abbia qualcosa di rilevante da dire riguardo alla regina delle scienze sociali: l’economia. Gli esseri umani, al contrario delle particelle elementari o delle stelle, sono dotati di libero arbitrio, ma soprattutto le leggi che regolano le modalità con cui un individuo compie le proprie scelte e con cui diversi individui entrano in relazione tra loro sviluppando comportamenti di gruppo sono a noi sconosciute; anzi è lecito dubitare che queste leggi siano ben definite. Per contro, conosciamo le leggi fondamentali che regolano, ad esempio, le interazioni tra le cariche elettriche o tra i pianeti e il Sole: tali leggi, come ad esempio la gravità, sono universali e sono le stesse in differenti punti dello spazio e in tempi diversi.

Certamente non si può dire lo stesso delle leggi che regolano l’economia: è sufficiente fare un salto indietro nel tempo di un centinaio d’anni, o piuttosto considerare la situazione odierna nei paesi sottosviluppati, per rendersi subito conto che le leggi dell’economia, che comunque non conosciamo allo stesso modo in cui possiamo scrivere l’equazione che descrive la forza di gravità che agisce tra il Sole e la Terra, cambiano nel tempo e nello spazio, secondo le condizioni storiche, sociali e legislative dei diversi paesi. Infatti, il tempo di una teoria fisica è privo di posizione storica, mentre il tempo in economia è, o dovrebbe essere, il tempo storico: come nota Mark Buchanan, il costo di una mela oggi non ha nulla a che vedere con il costo di una mela durante la seconda guerra mondiale, ecc.

Tuttavia le differenze non si esauriscono qui. Proprio in virtù dell’universalità delle leggi naturali, in fisica, possiamo ripetere un esperimento per accertarci del nesso consequenziale di una certa serie di processi. Inoltre, grazie alla conoscenza delle leggi naturali che regolano la dinamica tra certi fenomeni, possiamo compiere previsioni da testare con esperimenti effettuati in condizioni controllate così da eliminare o minimizzare gli effetti di fattori esterni (non contemplati dalla teoria). I risultati di questi esperimenti devono essere ripetibili, date le stesse condizioni, in ogni altro luogo della Terra e in ogni altro momento nel tempo. La validazione di una teoria attraverso esperimenti riproducibili sta, infatti, alla base del metodo scientifico.

Data questa situazione, si potrebbe concludere che l’economia è una disciplina troppo differente da una scienza naturale come la fisica e che dunque come un economista non ha gli strumenti tecnici e concettuali per contribuire in maniera significativa ad un problema di fisica, così un fisico che si occupa di problemi così differenti e in un certo senso più limitati, ma metodologicamente più definiti, non abbia nulla di interessante da dire sulle dinamiche economiche, poiché incommensurabilmente più complesse. Questo proprio in virtù del fatto che in fisica gli oggetti di studio sono inanimati, le leggi di natura sono universali e gli esperimenti sono riproducibili.

Nonostante le enormi differenze tra le due scienze vi sono alcuni concetti e metodi sviluppati nella fisica – e più generale nelle scienze naturali dell’ultimo secolo – che possono, anzi devono, essere patrimonio comune anche degli scienziati sociali come gli economisti. Questo libro si propone appunto di costruire una guida al fine di mostrare l’impatto di questi concetti sull’economia neoclassica.

Mark Buchanan ricorda e discute il caos deterministico che sta alla base del comportamento di sistemi con interazioni non lineari come il sistema Terra-Luna-Sole o l’atmosfera stessa, in cui piccole perturbazioni possono causare effetti enormi e sorprendenti; sistemi invarianti di scala come i frattali, per i quali bisogna abbandonare le ordinarie nozioni di statistica come media e varianza per focalizzarsi su esponenti di scala; sistemi caratterizzati da grandi fluttuazioni, in cui eventi estremi sono molto più probabili di quanto avviene “normalmente”; sistemi fuori dall’equilibrio, che sono intrinsecamente instabili e per i quali lo stato di equilibrio stabile diventa irrilevante; sistemi che si auto-organizzano in stati “critici” caratterizzati da dinamiche invarianti di scala che sono soggetti a cambiamenti repentini e drammatici; sistemi in cui l’adattabilità e la diversificazione sono gli elementi dinamici cruciali e altri ancora che sono studiati, ormai ordinariamente, in fisica, meteorologia, geologia, biologia.

L’autore paragona gli economisti neoclassici a meteorologi che si ostinano prevedere il tempo trascurando tempeste e uragani: l’analogia tra l’economia e la meteorologia fornisce uno dei fili conduttori del libro proprio in quanto le turbolenze atmosferiche sembrano avere molto in comune con gli alti e i bassi dei mercati finanziari e forniscono interessanti spunti per capire i limiti dell’ipotesi della stabilità economica. Questo parallelo chiarisce inoltre in quale senso sia possibile intendere il concetto di previsione per un sistema complesso e come i progressi avvenuti nell’ultimo secolo abbiano permesso di migliorare il potere predittivo dei meteorologi.

Un secolo fa le previsioni del tempo erano basate sull’idea della regolarità che molti fenomeni fisici mostrano: l’idea era semplicemente quella di cercare nel passato una situazione abbastanza “vicina” all’oggi e da questa trarre una previsione per il domani. I risultati delle previsioni così effettuate erano abbastanza disastrosi per un motivo che oggi ben conosciamo: l’atmosfera si comporta in maniera caotica e piccole variazioni dei parametri fisici possono indurre grandi cambiamenti nei comportamenti del tempo meteorologico. La svolta nelle previsioni avvenne grazie alle intuizioni del fisico Lewis Richardson che propose di usare le equazioni delle ben note leggi fisiche che regolano l’evoluzione dell’atmosfera. Grazie allo sviluppo dei computer che permettono di risolvere numericamente complicati sistemi di equazioni e all’osservazione delle condizioni atmosferiche attraverso una vasta rete di satelliti, le idee di Richardson sono diventate realtà e la qualità delle previsioni meteorologiche è aumentata costantemente nel tempo dai primi anni ’80 in poi. Ad esempio, è diventato possibile ottenere previsioni a sette giorni ragionevolmente affidabili solo a partire dal 2000 mentre le previsioni a cinque giorni di oggi hanno la stessa qualità delle previsioni a tre giorni dei primi anni ’90.

Un recente studio ha mostrato che i maggiori analisti economisti e le organizzazioni ufficiali nazionali e internazionali, oltre ad essere sempre in accordo, non hanno predetto, con un anno di anticipo, quasi nessuna delle 88 recessioni (diminuzione del PIL reale su base annua) avvenute nel periodo 2008-2012 nei paesi avanzati, tanto che gli autori hanno concluso che “il record di fallimento nella previsione delle recessioni è praticamente senza macchia”. Ciò significa che oggi – proprio come nei giorni prima della crisi del ’29 – è una buona regola considerare che il contrario delle previsioni ufficiali e di quelle dei maggiori commentatori è, con ottima probabilità, ciò che succederà; ed in ogni caso più probabile di una decisione basata sul lancio di una moneta. Non sorprende dunque che quegli stessi modelli economici che non contemplavano neppure la possibilità di una crisi storica come quella avvenuta nel 2008, non sono neanche abbastanza affidabili da prevedere le recessioni: insomma non superano il test basilare di ogni teoria scientifica.

Image

L’economia neoclassica è oggigiorno fornita di una veste matematica, quasi fosse una scienza naturale, ma non è capace di descrivere la realtà come il fallimento di ogni previsione mette chiaramente in luce: per rimediare si racconta, ovviamente a posteriori, che i fallimenti sono dovuti a shock esterni (ad esempio le crisi politiche, i terremoti, ecc.) che non sono contemplati dai modelli. Eppure il confronto con la realtà è la forza del metodo scientifico che seleziona le teorie valide proprio in base al successo nella previsione. In fisica, ad esempio, si possono trovare tanti esempi di teorie matematicamente corrette ma del tutto irrilevanti poiché basate su ipotesi errate: dunque queste teorie portano a risultati contraddetti dagli esperimenti. Ma se un esperimento è in disaccordo con la teoria non si conclude che questo discredita il metodo quantitativo quanto piuttosto si ragiona sulle ipotesi su cui è basato il modello e si identificano quali sono quelle sbagliate. E ovviamente si cambia modello: più del rigore matematico è importante la rilevanza fisica, ovvero il confronto con la realtà.

Il più grande passo concettuale discusso da Buchanan e non assorbito dall’economia neoclassica, è quello che ha dato luogo al campo interdisciplinare dei sistemi complessi. Phil Anderson, premio Nobel per la fisica, ha sintetizzato questa rivoluzione concettuale nel suo articolo del 1970 intitolato “Il più è differente”. L’idea di base è qui di seguito descritta. In fisica l’approccio tradizionale considera i sistemi più semplici e li studia dettagliatamente; tale approccio, detto riduzionistico, si focalizza sui “mattoni” elementari che costituiscono la materia e si applica con successo a molti fenomeni. Da ciò è stato possibile derivare leggi generali che si estendono dalla scala del nucleo atomico a quella delle galassie. È facile però rendersi conto che, non appena aumenta il grado di complessità delle strutture e dei sistemi e quando questi sono composti da tanti elementi in interazione tra loro, ci si trova di fronte a nuove situazioni, in cui la conoscenza delle proprietà degli elementi individuali (ad esempio, le particelle, gli atomi, i pianeti, ecc.) non è sufficiente per descrivere la struttura nel suo insieme. Il punto è che, quando questi elementi interagiscono tra loro in maniera non lineare, formano strutture complesse e sviluppano moti collettivi che hanno poco a che fare con le proprietà dei singoli elementi isolati. Possiamo rappresentare questa situazione come lo studio della “architettura” della materia e della natura che dipende in qualche modo dalle proprietà dei “mattoni”, ma possiede poi caratteristiche e leggi fondamentali non ricollegabili a quelle dei singoli elementi. Secondo Anderson la realtà ha dunque una struttura gerarchica e a ogni livello della gerarchia è necessario introdurre concetti e idee diverse da quelle utilizzate nel livello precedente. In parole semplici: dalla conoscenza delle leggi fondamentali che regolano l’interazione tra particelle elementari non è semplicemente possibile capire la formazione di molte delle fasi della materia condensata, ecc. Lo studio dei sistemi complessi riguarda l’emergenza di proprietà collettive in sistemi con un gran numero d’elementi in interazione tra loro. Se questa problematica è fondamentale nello studio di molti problemi fisici, tanti esempi nel corso degli ultimi trent’anni hanno mostrato che la comprensione di alcuni problemi specifici in un certo campo può dar luogo a una nuova metodologia con possibilità d’applicazione in altre discipline tra le quali sicuramente l’economia. Il campo dei sistemi complessi fornisce dunque una varietà di metodi nuovi e raffinati che permettono di porsi nuove domande e di inquadrarle in un modo diverso e originale.

Una teoria economica che non considera il modo in cui insorgono comportamenti collettivi di agenti o la dipendenza sensibile a piccole perturbazioni – come appunto l’economia neoclassica – non può pretendere di spiegare come avvengano le crisi importanti o le fluttuazioni repentine e improvvise che si osservano giornalmente nei mercati finanziari. L’idea che un sistema interconnesso e strettamente interdipendente come la moderna economia finanziaria, possa tendere a qualche forma di stabilità, deve essere messa in discussione in maniera laica a pragmatica.

Per comprendere la portata delle idee teoriche sviluppate intorno ai fenomeni non lineari fuori (lontani) dall’equilibrio, basti considerare che gli economisti neoclassici hanno interpretato la crisi del 2008 attraverso il pregiudizio ideologico secondo cui la crisi finanziaria è stata innescata da cause del tutto imprevedibili, il fallimento della Lehman Brothers, ma, giacché, i mercati liberi tendono alla stabilità, non ci sarebbero state ripercussioni sull’economia reale. Questa interpretazione ­– che ha influenzato l’opinione pubblica e le successive scelte politiche dei governi di tanti paesi e delle principali istituzioni internazionali ­– è originata proprio dalla convinzione teorica secondo cui i mercati deregolati dovrebbero essere efficienti e gli agenti razionali dovrebbero aggiustare velocemente ogni prezzo non completamente corretto e ogni errore di valutazione. Il prezzo dovrebbe dunque fedelmente riflettere la sottostante realtà e assicurare l’allocazione ottimale delle risorse. Questi mercati “equilibrati” dovrebbero essere stabili: perciò le crisi possono essere innescate solo da grandi perturbazioni esogene come gli uragani, i terremoti o sconvolgimenti politici, ma certo non causate dal mercato stesso.

Questi pregiudizi teorici sono originati da un’eccessiva semplificazione del problema per cui l’idealizzazione non è solo dissimile dalla realtà, ma, in effetti, è completamente irrilevante alla sua comprensione. Come spiega in dettaglio Buchanan, i fisici che si occupano di complessità studiano da una ventina d’anni sistemi che mostrano comportamenti intermittenti molto simili a quelli dei mercati finanziari, in cui la natura non banale delle dinamiche si origina da effetti collettivi intrinseci – non da cause o shock esterni. Le singole parti hanno un comportamento relativamente semplice, ma le interazioni portano a nuovi fenomeni emergenti così che il comportamento dell’insieme è fondamentalmente diverso da quello dei suoi costituenti elementari. Anche se uno stato di equilibrio esiste in teoria, questo può essere totalmente irrilevante in pratica, perché il tempo per raggiungerlo è troppo lungo e perché questi sistemi possono essere intrinsecamente fragili rispetto all’azione delle piccole perturbazioni evolvendo in modo intermittente con un susseguirsi di epoche stabili intervallate da cambiamenti rapidi e imprevedibili. In questa prospettiva è naturale concludere che finché non s’interverrà sulla regolamentazione dei mercati finanziari, ovvero sulle cause endogene delle crisi e sui preconcetti teorici alla base dell’ineffabile equilibrio dei mercati liberi, altre crisi come quella iniziata nel 2008 si potranno ripetere senza alcun preavviso e, purtroppo, piuttosto spesso.

La domanda chiave che ci si dovrebbe porre è dunque questa: gli assiomi fondamentali usati nella teoria economia neoclassica sono sottoposti a test empirici? Ad esempio: i mercati liberi tendono a una situazione di equilibrio stabile o fluttuano in maniera del tutto selvaggia? La risposta a questa domanda viene dalle osservazioni o è un’assunzione indiscutibile? Questo è un punto cruciale in quanto chi pensa che i mercati liberi siano efficienti e si auto-regolino verso una situazione di equilibrio stabile sarà portato a proporre un ruolo dei mercati sempre più importante e ad “affamare la bestia”, lo Stato corrotto e clientelare, come in effetti è avvenuto sia negli Stati Uniti che in Europa negli ultimi vent’anni. Chi pensa che i mercati liberi siano invece dominati da fluttuazioni selvagge e intrinsecamente lontani da un equilibrio stabile, generando invece pericolosi squilibri e disuguaglianze, sarà indotto a proporre un maggiore intervento dello Stato, cercando di migliorare l’efficienza di quest’ultimo. Analogamente, chi crede nella stabilità dell’economia deregolarizzata è ovviamente portato a considerare ogni fluttuazione nei mercati finanziari come una perturbazione ininfluente rispetto alla situazione di equilibrio: una crisi devastante non si può prevedere perché non è contemplata nel fantastico mondo dei mercati efficienti. Quando un paradigma diventa così forte da sostituire qualsiasi osservazione empirica si tramuta in un dogma e lo studioso finisce per vivere nel modello, senza più accorgersi di ciò che accade nel mondo reale. Come ben sperimentiamo oggi, non c’è alcuna stabilità nell’economia reale: l’accelerazione verso la finanziarizzazione, con l’introduzione nel mercato dei derivati, ha reso ancora più potenzialmente esplosiva la situazione. Tutto il contrario di ciò che credono gli economisti neoclassici.

Aveva dunque tutte le ragioni la Regina Elisabetta quando – durante la visita alla London School of Economics nel novembre del 2008 – chiese perché la gran parte degli economisti, quelli che lavorano nelle istituzioni nazionali e internazionali e quelli che scrivono ogni giorno sui maggiori quotidiani del mondo, non avevano capito che la crisi economica stesse per avvenire. Due noti economisti inglesi risposero alla Queen’s question con una lettera alla Regina riassumendo le posizioni emerse nel corso di un forum promosso dalla British Academy: “Quindi, in sintesi, Vostra Maestà, l’incapacità di prevedere i tempi, la grandezza e la gravità della crisi e di prevenirla, pur avendo molte cause, è stato principalmente un fallimento dell’immaginazione collettiva di molte persone brillanti, sia in questo paese che internazionalmente, per comprendere i rischi per il sistema nel suo complesso”. Più esplicitamente un altro gruppo di economisti britannici sottolinea “che negli ultimi anni l’economia si è trasformata quasi in un ramo della matematica applicata, ed è diventata distaccata dalle istituzioni del mondo reale e dagli eventi”. Il problema non sta nel fatto che l’economia sia o meno una scienza esatta (e non lo è), o che l’uso della matematica fornisca una solida veste scientifica, quanto piuttosto di un problema metodologico. La biologia (anch’essa non è una scienza esatta) ha fatto progressi enormi negli ultimi anni grazie ad un serrato studio di esperimenti e dati, avanzando in maniera pragmatica e non facendosi guidare da indubitabili assunzioni ideologiche.

La crisi economica è scoppiata inizialmente come una crisi bancaria e finanziaria innescata da una crisi di debito privato dovuto a un’incontrollata creazione di “denaro dal nulla” nella forma dei titoli derivati da parte delle banche sia in Europa sia in America, giustificata dalla credenza che avrebbero più efficacemente stabilizzato i mercati. Quando questo castello di carte è crollato, con dei costi enormi per milioni di persone, il governo americano ha sostenuto le banche per quasi trenta trilioni di dollari, nella forma di prestiti e garanzie, in parte rientrati e in parte no, mentre alla fine del 2010 la Commissione Europea ha autorizzato aiuti alle banche per più di quattro trilioni di dollari. Con questi interventi la crisi finanziaria, che fino all’inizio del 2010 era una crisi di banche private e non si era tramutata in una catastrofe mondiale, è stata caricata sui bilanci pubblici che così hanno salvato i bilanci privati. In quel momento le parole d’ordine, diffuse dai principali media, spesso attraverso gli stessi economisti neoclassici che hanno sostenuto nel passato ogni scelta di deregolamentazione e liberalizzazione dei mercati, sono diventate però altre: eccesso di indebitamento degli Stati, eccesso di spesa pubblica, pensioni insostenibili, spese per l’istruzione “che non ci possiamo più permettere”, ecc. Come conseguenza, anche per rispettare i nuovi provvedimenti, primo tra cui l’incredibile norma del pareggio di bilancio inserita in Costituzione senza una discussione pubblica da un Parlamento quantomeno distratto, è stato fatto passare senza grandi difficoltà il messaggio che lo Stato spende troppo e dunque che è necessario tagliare le spese pubbliche: asili, scuole, sanità, istruzione, ricerca, pensioni, ecc.

Questa incredibile e inaccettabile mistificazione è stata possibile grazie ad una sorprendente e pervasiva egemonia culturale avvenuta non solo attraverso la conquista delle posizioni accademiche dominanti da parte degli economisti neoclassici, ma anche, e soprattutto, con la sovrapposizione del loro ruolo accademico, politico e di orientamento dell’opinione pubblica, essendo molti di questi editorialisti di grandi quotidiani nazionali o consiglieri del principe. Il libro di Buchanan mostra, infatti, come idee teoriche che sembrano innocue elucubrazioni di qualche strampalato accademico sono diventate potenti mezzi di condizionamento politico e culturale. Scrive il premio Nobel per l’economia Paul Samuelson: “Non mi interessa chi scrive le leggi di una nazione o chi elabora i suoi trattati, se posso scrivere i suoi libri di testo di economia”. La via d’uscita alla crisi economica passa innanzitutto attraverso un cambiamento di prospettiva culturale che i nuovi concetti delle scienze naturali insieme con la loro metodologia possono fornire all’economia.

Per concludere, Buchanan discute in più punti dell’onestà intellettuale degli economisti neoclassici in relazione alla maniera in cui argomentano e difendono le incredibili ipotesi alla base dei modelli tutt’ora utilizzati da decisori politici e istituzionali. Per completare la discussione riporto di seguito l’illuminante lezione magistrale sul senso della scienza e dell’etica scientifica del Nobel per la fisica Richard Feynman che spiega perfettamente il problema metodologico dell’economia neoclassica:

“Nei mari del Sud vive un popolo che pratica il culto dei cargo: durante la seconda guerra mondiale hanno visto atterrare aerei carichi di ogni ben di Dio, ed ora vorrebbero che la cosa continuasse. Hanno tracciato sul terreno delle specie di piste; accendono fuochi ai loro lati; hanno costruito una capannuccia in cui si siede un uomo con due pezzi di legno a mo’ di cuffie, e da cui sporgono dei bambù a mo’ d’antenne radio (l’uomo rappresenta il controllore di volo); e aspettano che gli aerei atterrino. Fanno tutto correttamente; la forma è perfetta e rispetta quella originale: ma la cosa non funziona. Non atterra nessun aereo. Così parlo di scienze da cargo cult: sono scienze che seguono i precetti e le forme apparenti dell’indagine scientifica ma alle quali, però, manca un elemento essenziale, visto che gli aerei non atterrano. A questo punto dovrei indicarvi l’elemento mancante. Sarebbe però altrettanto difficile spiegare agli isolani dei mari del Sud come procedere per far funzionare il loro sistema ed arrivare ad un certo benessere. Non si tratta di una cosa semplice, come dir loro di migliorare la forma delle cuffie. Ma c’è soprattutto una cosa che in genere manca nelle scienze da cargo cult: un’idea che tutti ci auguriamo abbiate imparato a scuola; non la esplicitiamo mai, speriamo che la scopriate da soli grazie a tutti gli esempi di indagine scientifica che avete studiato. Ora invece sarà interessante formularla apertamente.

Si tratta dell’integrità scientifica. Un principio del pensiero scientifico che corrisponde essenzialmente a una totale onestà, ad una disponibilità totale. Ad esempio, quando si effettua un esperimento bisogna riferire tutto ciò che potrebbe invalidarlo e non soltanto quello che sembra in accordo con le aspettative; le altre cause che potrebbero insomma originare gli stessi risultati… (…) Sappiamo per esperienza che la verità finisce sempre col venire a galla. Altri scienziati ripeteranno il vostro esperimento e scopriranno se era corretto o no. I fenomeni della natura saranno o no in accordo con la vostra teoria. E magari otterrete una fama momentanea ma, se non avrete lavorato con accuratezza, la vostra reputazione di scienziato non sarà buona. Sono questa integrità, questa volontà di non auto-ingannarsi, che mancano alla ricerca delle scienze da cargo cult… Vi auguro una cosa sola: la fortuna di trovarvi sempre in una situazione che vi consenta di mantenere liberamente l’integrità di cui ho parlato e di non sentirvi costretti a perderla per conservare il posto, trovare fondi, o altro. Possiate voi avere questa libertà.”

La “cargo science” di Feynman è dunque una metafora perfetta della teoria neoclassica: le palette, la pista, i fuochi e le cuffie sono davvero molto simili alla mano invisibile, alle aspettative razionali e ai mercati efficienti. Così come gli indigeni sono sempre lì ad aspettare che gli aerei atterrino, gli economisti aspettano che i mercati si stabilizzino; ma purtroppo per gli indigeni dei mari del sud e per noi consumatori e cittadini gli aerei continuano a non atterrare e le crisi continuano a imperversare. Alla teoria neoclassica manca probabilmente qualcosa di essenziale: la complessità è oggi senz’altro uno tra i tentativi più promettenti al fine di fornire strumenti scientifici e riformularne alla base l’approccio metodologico.

Send to Kindle

11 Commenti

  1. Grazie FSL.

    An economist is an expert who will know tomorrow why the things he predicted yesterday didn’t happen today.
    Laurence J. Peter

    Read more at http://www.brainyquote.com/quotes/authors/l/laurence_j_peter.html#m2iXdtw7kMfwwXwb.99

    L’ altro problema è l’ortodossia che ingabbia gli economisti e nessuna o quasi capacità autocritica. Essa però (mancanza di capacità autocritica) riguarda spesso anche altri “scienziati” medici per primi. La tecnica è certezza la sicenza respira solo nel dubbio.

    • “Gli unici che credono alle balle degli economisti neoclassici sono gli economisti neoclassici e i loro studenti.” Non mi ricordo chi l’ha scritta ma mi sembra perfetta, è peggio che per quelli che credono all’astrologia.

  2. Carissimi,
    anche questo mi pare un post tanto interessante quanto condivisibile.
    Del resto, se in economia uno è liberale in buona fede, e guarda in faccia alla realtà senza paraocchi ideologici, col tempo non può non cambiare idea; magari non ammetterà mai che ha cambiato idea, per una questione di orgoglio, ma di fatto la cambierà.
    Ovviamente, il mio è un indovinello, ma, visto che il post pone una connessione tra fisica ed economia, è un indovinello facile.
    Chi indovina vince un mappamondo (e questo è un indovinello nell’indovinello).
    Per il resto, a me pare che gli economisti neoclassici l’economia la sappiano prevedere fin troppo: credo, cioè, che una serie di questi personaggi sia veramente in malafede, perché la torta è troppo grande e loro non resistono alla tentazione.
    Ad. es., una balla tipica dei neoclassici è l’esistenza di una proporzione diretta tra svalutazione è inflazione (se svaluterai del 30% avrai l’inflazione al 30%). Ora, se le svalutazioni non ci fossero mai state, la cosa avrebbe un senso, ma siccome tutti i dati sulle svalutazioni dimostrano che, molto semplicemente, questa connessione non esiste, come si fa ad insistere?
    Forse è ancora reperibile online l’intervista rilasciata da Monti alla Repubblica dopo l’uscita dallo SME, con conseguente svalutazione, ma senza crescita alcuna dell’inflazione. Scusi -dice la giornalista- ma non aveva sempre detto che non potevamo uscire, perché la svalutazione avrebbe comportato un’inflazione direttamente proporzionale? E lui risponde candidamente che si era sbagliato, perché ci sono altri fattori, etc.
    Vaglielo a chiedere adesso, a lui e a quelli come lui, rispetto all’uscita dall’euro, e ti faranno la stessa campagna allarmista sul pericolo inflazione. Ma allora come possiamo parlare di sbaglio?
    A proposito degli spropositi, mi pare che in questa recensione -e quindi immagino anche nel libro- il grande assente sia proprio l’euro, e quindi la crisi dell’eurozona, che appunto era prevedibilissima e, del resto, ampiamente prevista…paradossalmente anche da chi l’euro ha introdotto contro gli interessi nazionali, che generalmente si giustifica dicendo che lo sapeva cosa sarebbe successo, ma l’euro serviva per costringere i Paesi ad arrivare all’integrazione…che poi sarebbe come dire: io costruisco un motore potentissimo e lo accendo, prima che l’automobile sia fornita di freni e sterzo, così, mentre sono in corsa, avranno fretta di costruirli. Nel frattempo, non mi importa di tutte le persone che muoiono schiacciate dall’automobile, già in moto senza freni e sterzo, che per inciso non si faranno mai, perché l’interesse dei Paesi e delle oligarchie che hanno innescato il fenomeno euro era solo nell’accensione del motore, e non certo nella creazione di trasferimenti compensativi (freno e sterzo), per altro incompatibili con la favoletta moralistica raccontata sia ai popoli dei Paesi succubi che a quelli dei Paesi incubi.
    Insomma, mi pare un libro molto interessante, ma pure con una grave mancanza (almeno per quanto risulta dalla recensione), nella misura in cui non affronta la questione della crisi dell’eurozona.
    Tom Bombadillo

  3. Che confusione epistemologica. Non esistono teorie economiche in grado di prevedere il futuro, se non per casi molto semplici e limitati. Se un economista fosse in grado di fare previsioni affidabili come giustamente dice Galbraith, si impossesserebbe rapidamente di tutte le risorse del mondo.
    Buchanan è un ottimo saggista. Dubito che abbia sostenuto le tesi ideologiche di questa introduzione. Comunque leggerò il libro.

  4. Carissimi,
    mi sbaglierò, ma continuo a ritenere che talune previsioni gli economisti riescano perfettamente a farle, e la sensazione che non ci riescano nasce solo dall’incomprensione dei fini, perché si ritiene che dati risultati siano negativi (e infatti è così, da un punto di vista generale), ma non si capisce che ciò che è negativo per l’interesse generale, ben può essere positivo per una piccola parte, per un interesse, cioè, molto particolare.
    In effetti, qui non si tratta neppure di mere previsioni, ma di vere è proprie cause: avendo la capacità di prevedere, cioè, si mettono in moto delle politiche (cause) che producono esattamente i risultati attesi. Il bello è che il più delle volte ci dicono pure il risultato, facendoci credere, però, che è nell’interesse generale (o, addirittura, dei più deboli), mentre è solo nell’interesse di pochissimi, e questo risultato puntualmente si avvera. Inoltre, non ci dicono qual è l’unico mezzo possibile per ottenere tale risultato, cioè lacrime e sangue (per noi, eh, mica per loro).
    Insomma, siamo pratici. Qual è l’obiettivo primario di politica economica dell’Unione Europea? Facile, basta leggersi i trattati: è la stabilità dei prezzi. E’ scritto così chiaramente. Le politiche messe in campo hanno ottenuto la stabilità dei prezzi? Sì. E allora come si fa a parlare di incapacità di prevedere? Qui la capacità di prevedere c’è, e c’è anche la capacita di mettere in atto politiche che producono il risultato.
    Quello che non ti dicono è che il risultato perseguito è il male assoluto. Infatti, la stabilità dei prezzi -ovverosia la mancanza di inflazione- serve (nel senso che conviene enormemente) esclusivamente a chi presta denaro per professione. Non se ne avvantaggia chi lavora, al quale basta e avanza che il proprio salario salga, per fregarsene della presunta “più iniqua delle tasse”, e non se ne avvantaggia l’imprenditore, perché, se i prezzi sono stabili, significa che lui non vende, o comunque vende poco, e deve dipendere dalla domanda estera (natura parassitaria, da “frega il tuo vicino”, delle politiche liberali). Guardate, paradossalmente non se ne avvantaggia neppure il piccolo risparmiatore che, per una ragione di asimmetria informativa, rimane puntualmente …bip.
    Quindi si ottiene un risultato negativo per l’interesse generale, ma favorevolissimo ad un ben preciso interesse particolare, in base a precise politiche. Il vero problema, inoltre, è che i mezzi sono peggio del fine, perché l’unico modo per distruggere la domanda interna è….la crisi! Ché, se la gente non è in crisi, spende tranquillamente….e indovinate che succede hai prezzi? Rimangono stabili? Voglio dire, non avete indovinato Maurice Allais, e Pulp Fiction, ma questa l’indovinate, vero?
    Quindi devi tagliere pensioni, sanità e -udite, udite- università, precarizzare il lavoro, così la gente non spenderà più, e i prezzi rimarranno stabili; o meglio spenderà solo per servizi finanziari, ovverosia per prendere a prestito, dai prestatori professionali di denaro, i soldi per la vecchiaia, le cure, l’università. Quindi, i prestatori professionali di denaro ci guadagnano due volte dalla stabilità dei prezzi: ci guadagnano dal risultato, perché giocano sulla differenza tra interesse nominale e reale; ci guadagnano dai mezzi per ottenere il risultato, perché ottengono tanti nuovi clienti che vanno a chiedergli soldi in prestito, per cose che dovrebbe e potrebbe garantire lo Stato.
    Qui siamo al due più due. Quale sarà il risultato? 4!!!
    Mica ci vuole la sfera di cristallo.
    Tom Bombadillo

    • C’e’ una teoria economica (mi si perdoni il termine) che intepreta la realta’ in una certa maniera e poi c’e’ una politica economica che si ispira e si modella in base all’ideologia della teoria. Questo accade per fare gli interessi di alcuni a svantaggio di altri. Il problema che vedo e’ pero’ questo avviene nascondendo una ideologia politica dietro una sorta di pseudo-scienza, cosi’ da gettare fumo negli occhi degli osservatori meno acccorti.

  5. La prefazione mi porta a chiedermi:
    1)
    il libro arriva ad indicare la metodologia, adottata da alcune scienze, per affrontare la complessità?
    2)
    ci si può aspettare che si tratti di un’estensione del “metodo scientifico”?

    Guardando le CERN timelines si può evidenziare come, a un certo punto, si sia presentata, per i fisici, la necessità di usare strumenti adeguati a rendere praticabile la loro metodologia.

    Tra gli strumenti, richiesti e acquisiti dai fisici a questo scopo, si può notare, in Computing at CERN, che già nel 1965 era stato affrontato il problema di analizzare 2 – 3 milioni di fotografie delle tracce prodotte da eventi in camere a bolle usando un computer CDC 6600.

    Putroppo però la frase “The 6600 was used to analyse the 2-3 million photographs of bubble-chamber tracks that CERN experiments were producing every year.” non dice con quale metodo il CERN sia riuscito ad adeguare un computer e il suo sistema operativo ai propri obiettivi.

    L’informatica è nata al CERN prima che nelle Università.

    La metodologia [informatica] del CERN è stata poi acquisita, nel 1969 dal CINECA e nel 1977 dall’ECMWW, che ne hanno poi fatto l’uso più idoneo [e comunque “duraturo”] ai propri campi di applicazione, diversi dalla fisica delle particelle.

    Se l’informatica del CERN ha potuto far scuola per il CINECA e per l’ECMWF, senza che queste due nuove organizzazioni sentissero il bisogno di farsi insegnare qualcosa dal CERN, ci si dovrebbe chiedere come mai non abbia potuto far scuola, con esiti altrettanto duraturi
    1)
    negli anni ’80 per un’industria europea che avrebbe potuto evitare la frammentazione e l’estinzione [BISON, a collaboration between a group of computer companies (Bull, ICL, Siemens, Olivetti, and Nixdorf) that subsequently became X/Open] e per
    2)
    negli anni ’90 per un programma europeo di armonizzazione degli acquisti Open System delle Pubbliche Amministrazioni che, se non fosse stato gestito solo come lavoro tecnico, avrebbe permesso di conservare all’Europa gran parte dei vantaggi economici messi a disposizione dall’informatica del CERN con l’invenzione del Web.

    La metodologia d’uso dell’informatica, creata dal bisogno di evitare la frammentazione del processo di acquisizione di conoscenza del CERN, è passata efficacemente di mano, come il testimone di una staffetta, dai fisici delle particelle, ai ricercatori consorziati nel CINECA, ai centri meteo nazionali membri dell’ECMWF.

    Nel 1982 il testimone avrebbe potuto essere consegnato alla nostra Olivetti [a poche decine di chilometri dal CERN] …. nel 1993, con l’aiuto dei professori di una nostra temporanea “Autorità per l’informatica”, la situazione, raccontata da un paio di consulenti indipendenti, non riuscì a far comprendere quale fosse la posta in gioco.

    Resta un’ultima opportunità: la staffetta potrebbe essere ancora vinta; il testimone del metodo CERN di fare informatica lo si dovrebbe far raccogliere a chi volesse correre verso il traguardo di un’economia basata sulla conoscenza, piuttosto che verso ulteriori traguardi dell’economia di mercato.

    • 1) il libro arriva ad indicare la metodologia, adottata da alcune scienze, per affrontare la complessità?
      ——

      Il libro spiega quale siano i metodi e i concetti generalmente usati nella fisica dei sistemi complessi

      ——

      2)ci si può aspettare che si tratti di un’estensione del “metodo scientifico”

      —-

      No ! E ci mancherebbe altro. Il metodo scientifico è abbastanza rodato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.