Interviste

Complessità, scienza e democrazia

«La scienza ne ha bisogno e, a sua volta, rafforza la capacità di esplorare nuove vie, di sviluppare un pensiero critico, quindi rafforza la democrazia. Se invece, ogni volta che si fa una valutazione, si fanno votare, contando a macchina le citazioni, tutti gli esperti di un settore sulla faccia della Terra, si impedisce il formarsi di un modo di vedere diverso, di una scuola di minoranza, futura maggioranza. Non uno dei nuovi modi di pensare la natura ha avuto vita facile all’inizio, talvolta lo dimentichiamo e pensiamo che Galileo sia un’eccezione. Un risultato difficile, una visione profonda e nuova richiede decenni per essere capita, assimilata. Invece, lo “impact factor” delle riviste è calcolato sul numero delle citazioni degli articoli nei due anni che seguono la pubblicazione: incredibile! […] Con la bibliometria, le reti di computer vengono usate non per rendere la conoscenza di tutti a disposizione di tutti, novità fantastica di oggi, ma per “normalizzare”, per chiedere a tutti di adeguarsi al pensiero di maggioranza, per canalizzare tutti verso la scuola più forte o addirittura verso la banalità, il senso comune, la moda. La valutazione deve essere affidata ad un gruppo di persone, che cambiano e che si prendono la responsabilità di capire e giudicare, di cogliere la novità, nei limiti dell’umano, non a macchine che contano. Altro e nuovo ostacolo all’invenzione scientifica è la prassi crescente di finanziare la ricerca sempre più o solo con grandi, grandissimi progetti.»
 _________
Ripubblichiamo di seguito un’Intervista a Giuseppe Longo di Paolo Bartolini (Fonte Megachip)
LW356-MC-Escher-Dewdrop-1948

Prof. Longo, quali limiti intravede nell’utilizzo massivo delle metafore provenienti dall’informatica per spiegare il vivente e la complessità della natura umana?

Ho scritto molto su questo, in particolare in collaborazioni con biologi del cancro cui devo molto nei tentativi di esplorazione del vivente – questa tremenda malattia si può capire forse solo analizzando il rapporto triangolare tessuto-organismo-ecosistema, quindi con una buona teoria dell’organismo, in primis. Vediamo di sintetizzare una critica sviluppata altrove (mi permetterò di inserire riferimenti ad alcuni miei testi, talvolta in italiano, dove si può trovare la bibliografia, inevitabilmente molto ampia).

La nozione di informazione si è specificata in almeno due teorie scientifiche rigorose ed importanti: l’elaborazione dell’informazione, a partire da Turing, diciamo, e la trasmissione dell’informazione (Shannon). Entrambe hanno individuano fondamentali invarianti matematici, ovvero nozioni e strutture che possono esser trasformate da un contesto ad un altro, conservando quel che conta. Le caratteristiche dell’informazione, in entrambi i casi, non dipendono dalla codifica (se non per piccoli costi di trascrizione: 0 ed 1, o 0-9 od altri segni qualsiasi) e, soprattutto, non dipende dal supporto materiale: si possono elaborare segni in valvole, chips, silicio… o trasmettere segnali su cavi, tamburi, fumate… Questa grande ed antica invenzione, formalizzata da Turing nel 1936, ma poi essenziale anche a Shannon, ha permesso di distinguere il software dallo hardware e di proporre quindi una autonoma teoria della programmazione o della trasmissione indipendente dal supporto materiale (grande ricchezza della pratica informatica). Così a Manchester, nel 2012, in occasione di un grande convegno per i 100 anni della nascita di Turing, gli studenti hanno costruito una Macchina di Turing (1936), il prototipo matematico dei computer moderni, in Lego. E funzionava… un po’ lenta, diciamo…

Più in generale, negli anni ’30, Herbrand, Gödel, Church, Kleene, Turing… tutti con proposte formali diverse per definire la nozione di algoritmo, hanno definito un invariante matematico fondamentale: la nozione di funzione calcolabile ovvero definibile da un algoritmo. Questa nozione non dipende dal sistema formale di calcolo. Indipendenza o invarianza quindi dal sistema, dalla codifica, dall’hardware di supporto… questa è la forza e il senso scientifico delle nozioni di informazione e di programma. I mistici hanno preso questo bellissimo invariante matematico per un assoluto, come spesso capita, e lo hanno trasferito su ogni fenomeno, anche naturale.

Così, quando uno dei leader del progetto genoma scrive che presto si sarebbe potuto trasferire l’informazione genetica su un compact disk e, dunque, affermare: “Here is a human being, this is me” (Gilbert, 1992; v. “Le conseguenze delle filosofia”, CF), ripropone questa distinzione fra hardware e software, fondamentale in informatica, ma catastrofica per capire il vivente. La sua osservazione si inserisce in una visione alfa-numerica del programma del vivente, ben descritta da P. Jacob e J. Monod, grandissimi della biologia molecolare, e fra i pochi che ne hanno esplicitato una riflessione teorica: “La surprise, c’est que la spécificité génétique soit écrite, non avec des idéogrammes comme en chinois, mais avec un alphabet” (Jacob, Leçon inaugurale, Coll. France, 7 mai 1965). Ciò ci assicurerebbe da che parte sta Dio, come conferma Francis Collins, direttore del National Human Genome Res Inst., nel giugno 2000, quando annunciava pubblicamente, accanto Clinton, Blair e Venter, la decodifica di cinque genomi umani, dicendo: “… we have caught the first glimpse of our own instruction book, previously known only to God”. Misticismo e teologia o entusiasmo di ricercatori per una straordinaria performance tecnica? In ogni caso, quale filosofia e pratica della biologia ci viene così proposta? Quale visione dell’uomo?

Si perde innanzitutto il senso della radicale materialità del vivente, in cui non si può distinguere software da hardware: esso non è fatto che di questi DNA, RNA, queste membrane… La biologia di sintesi infatti trasferisce frammenti dell’uno nell’altro, sempre con la stessa struttura fisico-chimica di base, non riscrive né trasferisce software come su un computer. Quando i colleghi biologi molecolari sapranno trasferire l’informazione ed il programma biologici su un DNA o su una cellula fatti di Lego e che funziona, allora si potrà dire che hanno separato le informazioni e le istruzioni, il “software” del vivente, dal suo hardware, scritto o meno da Dio, nel senso matematico di questi termini. Sono queste solo innocenti metafore? No: una metafora trasferisce ed arricchisce il senso di una proposta teorica, in questi casi invece si tratta di riferimenti al senso comune, nozioni vaghe, molli, mal definite, di informazione e programma, di cui non si usa nessuna proprietà scientifica, e da queste si sono dedotte conseguenze enormi, fortissime sulla conoscenza; questo è inaccettabile in scienza. La scienza si costruisce facendo ipotesi forti e rigorose e contro il senso comune, contro l’idea che il Sole si alzi sulla Terra ferma, che la luce vada su una retta euclidea, che la misura sia sempre la stessa, anche commutando l’ordine fra energia e tempo (la non-commutatività quantistica)…

Ipotesi molli, quindi, quelle che hanno troppo a lungo governato la biologia molecolare, ma non innocenti. Da queste, per capire come avvenisse la trasmissione ed elaborazione dell’informazione genetica, si è fatta ad esempio derivare la “necessaria stereo-specificità” (corrispondenza geometrico-fisico-chimica esatta, “chiave-serratura”) delle interazioni macromolecolari nella cellula, “meccanismo cartesiano” (Monod, 1970), impedendo così di vedere la stocasticità di queste interazioni, le cui probabilità dipendono dal contesto (cellulare, organismico, ecosistemico), vedi BraLo. Così, con disinvoltura, non si è visto il ruolo di perturbatori endocrini delle combinazioni finite delle 80.000 molecole che abbiamo prodotto e immesso nell’ecosistema in poco più di un secolo: modificano le probabilità di interazione lungo le cascate ormonali e con i recettori cellulari (v. CF per riferimenti ad un documento durissimo della American Endocrynology Association e ai lavori dei colleghi della Tufts University a Boston, C. Sonnenschein ed A. Soto, con cui collaboro, che hanno contribuito a mettere in evidenza il ruolo cancerogeno del BisphenolA, sin dagli anni ’90, allora presente in moltissime plastiche alimentari).

Così, dicendo che “gli organismi sono meri veicoli dell’informazione genetica”, come recita un testo di riferimento in biologia molecolare, al servizio di “geni egoisti”, secondo l’affermazione di un filosofo alla moda, si è pensato ad esempio di poter pilotare completamente lo sviluppo delle piante, modificandole geneticamente (gli OGM). Più esattamente, gli OGM sono figli diretti del “dogma centrale” della biologia molecolare (Crick, 1958), secondo il quale l’informazione si propaga dal DNA al RNA alle proteine, in modo unidirezionale e lineare (salvo qualche retroazione RNA-DNA). Oggi invece si capiscono, fra gli altri, gli effetti gravissimi, interattivi e retroattivi, multilivello, delle OGM sul microbioma e sui funghi, simbionti essenziali delle piante (v. i lavori di M. Buiatti, in Italia).

In CF discuto brevemente le deformazioni indotte da questa visione ”informazionale/ programmatica” del vivente nella ricerca sul cancro. Al riguardo, è venuta in aiuto alla sviluppo della visione dei miei colleghi della Tufts Unversity, la severa autocritica, in Cell, marzo 2014, di uno dei massimi personaggi del “tutto genetico” in biologia del cancro, R. Weinberg, biologo al MIT. Questi è stato partecipe delle grandi promesse di terapie genetiche dietro l’angolo, promesse iterate ogni anno, ancor oggi e sin dal 1971, l’inizio della “War on Cancer” di Nixon; rinvio al suo articolo o al sunto che ne faccio alla fine di CF, per cogliere il senso di una débacle annunciata.

Attenzione, la biologia molecolare ci ha dato immense quantità di dati ed ha messo in evidenza meccanismi fondamentali. E’ straordinario vedere la finezza sperimentale e l’originalità dei metodi che hanno portato Monod e Jacob a scoprire il meccanismo dell’operon lactose, regolazione dell’espressione genetica da parte del DNA stesso. Ma questo fa loro trascurare l’epigenetica: non citano così Barbara McClintock, la prima a pensare alla “regolazione”, di cui aveva visto la componente epigenetica. In effetti, sin dagli anni ’50, i grandi genetisti, come lei o Waddington, vengono messi da parte e per decenni: avevano studiato i cromosomi sempre in un contesto – il proteoma, la cellula, l’organismo. Evelyn Fox-Keller, in un libro dedicato alla McClintock, lo racconta molto bene. Così, per decenni, si sono cercati regolatori dell’espressione genetica nel DNA stesso, attribuendo a questo il ruolo di descrizione completa dell’organismo, homunculus aristotelico, piccolo piccolo, ma completamente codificato nei cromosomi, dunque “programmato” (siamo moderni noi!). Invece, e i genetisti di 60 anni fa lo sapevano, ogni cascata molecolare rilevante, dal DNA all’RNA alle proteine, dipende causalmente da tutto il contesto. E da alcuni anni si sa che cellule, individuali o in piccoli gruppi, prelevate de tessuti tumurali e trasferite in tessuti sani, di topi clonati ad esempio, riprendono funzionalità normali, senza necessariamente “riprogrammare” il DNA (v. Maffini et al. in CF).
I suoi studi e le ricerche sviluppate con altri ricercatori (ad esempio Marcello Buiatti) hanno permesso di coniare il concetto di “bio-risonanza” e di “aleatorio in biologia” per descrivere le interazioni tra livelli organizzativi diversi dell’organismo e l’impredittibilità di ogni divenire. Quali riflessi può avere, sul piano etico e sociopolitico, un modo di interrogare la realtà che rinunci alla pretesa della semplificazione a tutti i costi e del controllo ossessivo dei processi naturali?

Il concetto di aleatorio è delicato. In particolare non è un assoluto, è relativo alle teorie: è l’impredittibilità rispetto alla teoria intesa (vedi CaLo). In fisica, le dinamiche classiche e quelle quantistiche ne propongono due, distinti epistemicamente e matematicamente. Il primo dipende dalla non-linearità ovvero dalle interazioni in un sistema e dalla natura approssimata della misura: una fluttuazione/perturbazione al di sotto della misura è causa, nascosta, di un fenomeno osservabile dopo qualche tempo (“et nous avons un phénomène aléatoire”, scrive Poincaré nel 1892). Si tratta del determinismo caotico che riguarda un lancio di dadi, un doppio pendolo o il sistema Solare (in tempi ben diversi, per fortuna).

La Meccanica Quantistica ne propone un altro, intrinseco alla teoria: i fenomeni di intricazione lo differenziano, matematicamente, da quello classico. In biologia, nella cellula quantomeno, sembrano sovrapporsi: ormai c’è evidenza massiccia di fenomeni quantistici con effetti fenotipici (vedi BuLo). Inoltre, l’interazione di diversi livelli di organizzazione (molecolare, tissulare, organismico…) produce effetti di (bio-)risonanza che destabilizzano e stabilizzano l’organismo. Ma, quel che più conta, è che l’aleatorio, in biologia, non è “rumore” come troppo spesso è detto ancor oggi (BraLo): è invece una componente essenziale della variabilità, adattività e diversità del vivente, quindi della sua stessa stabilità strutturale, a livello di specie, popolazioni e persino individuale. Il sistema immunitario è il massimo esempio di “generatore funzionale” di aleatorio, essenziale alla stabilità e viabilità di un organismo; persino un organo all’apparenza così uniforme, come il fegato, ha un 50% di cellule con numero “errato” di cromosomi o con mutazioni sempre diverse: questi sono funzionali alla resilienza dell’organo a fronte della varietà imprevedibile degli shock tossici.

Adattività, esplorazione del diverso… sono nozioni chiave in biologia, che si associano alle difficoltà del controllo a priori delle dinamiche dello stato vivente della materia: queste modificano simultaneamente gli organismi e l’ecosistema, i fenotipi e le funzioni, quindi gli osservabili stessi della dinamica. Ovunque, “correlated variations”, come recita un capitolo fondamentale dell’Origine delle Specie di Darwin, rendono l’organismo, ma anche l’ecosistema, una sfida concettuale da non trattare come “l’accumulo” del semplice. Ogni macchina la si ottiene “impilando” componenti elementari e semplici, uno dopo l’altro: la costruiamo per associazione, assemblaggio di componenti, con viti e bulloni, chips e bits… semplici ed elementari. I computers e le reti di computers, in particolare, sono un complicatissimo sovrapporsi ed intrecciarsi di componenti elementari e semplici.

In scienze della natura, invece, non è affatto detto che il fondamentale sia elementare, né che l’elementare sia semplice. Le teorie di Galileo ed Einstein sono fondamentali ma non trattano l’elementare, gli atomi di Democrito o i quanta. Questi, i quanta, concettualmente, o le cellule, come componenti elementari del vivente, non sono affatto semplici. Inoltre, un organismo multicellulare non si costruisce incollandoci sopra un tessuto, avvitandoci un organo… ma per differenziazione a partire da una sola cellula, che è già un organismo e che, ad ogni differenziazione cellulare, mantiene la sua unità funzionale; complessità originaria che si complessifica ulteriormente, non impila mattone, elementare e semplice, su mattone. E questo, nella costruzione permanente di diversità, radicalmente imprevedibile, nella filogenesi e, quindi, nell’ontogenesi: la costruzione del diverso, della nuova specie, avviene a causa di una variante, lo “hopeful monster”, che appare nel corso di una o più ontogenesi, e che trova o costruisce una nicchia di viabilità (di “enablement”, diciamo noi).

Due economisti hanno coinvolto Stuart Kauffman, biologo americano, e me a scrivere con loro le “conseguenze economiche” di questa visione della storicità del vivente: l’economia è innanzitutto una storia (si veda fra le Minima Oeconomica in download). Pensare di fissare, anche temporaneamente, lo “spazio delle fasi” o dei possibili economici, necessario a scrivere le equazioni di una dinamica, è un errore concettuale, arricchito da semplificazioni o riduzioni delle dimensioni del problema assolutamente arbitrarie. O meglio, entrambe hanno motivazioni politiche che si mascherano dietro una presunta oggettività matematica.

I fisici sanno che la scelta dello spazio delle fasi, dei parametri ed osservabili pertinenti, è difficilissima (“È la teoria che fissa gli osservabili”, dice Einstein) e che le variabili omesse, ma rilevanti per la dinamica, fanno crescere l’impredittibilità del sistema in modo esponenziale con il loro numero (vedi Border). In economia si fa finta di non saperlo, quando fa comodo.

 

Lei ha parlato di un rapporto molto stretto tra scienza, democrazia e dissenso creativo. Può approfondire la questione?

Ne ho parlato in un breve articolo in italiano, Bu, e soprattutto in Lo-bi, che è la conseguenza di una battaglia condotta contro gli strumenti bibliometrici per valutare la ricerca scientifica. Per fortuna ebbi l’appoggio, oltre che degli informatici, dei dipartimenti di matematica e di fisica dell’istituzione in cui lavoro da 25 anni, l’ENS di Parigi. In uno sono passati, come allievi o docenti, 11 delle 13 medaglie Fields francesi e, in fisica, fra i docenti, due dei premi Nobel degli ultimi 10 anni. Così bloccammo l’uso a tappeto, in Francia, di conteggi insensati della produzione scientifica, almeno per ora, strumenti che invece imperversano in Italia. Poi, un convegno dell’Academia Europea a Stoccolma ribadì il nostro giudizio (riferimenti in Lo-bi).

In breve, la costruzione di conoscenza scientifica, nella storia, è sempre correlata a qualche forma della democrazia. È necessaria un’agorà, un luogo di dibattito, che permetta il dissenso e, quindi, l’esplorazione scientifica; foss’anche il piccolo spazio protetto della corte del signore rinascimentale o del principe illuminato o… l’Accademia delle Scienze in Unione Sovietica, unico posto in cui si poteva un po’ discutere in URSS (e solo di matematica e fisica, non certo di biologia). La scienza è sempre un sapere critico, che va contro il senso comune, dicevo, ma si costruisce sempre ed anche contro il sapere di maggioranza. Inizia sempre dicendo: no, non è così… foss’anche su un fatto, un’osservazione, un’idea minimi. Ci vuole certo una scuola di pensiero – non esiste il pensatore totalmente isolato – ma all’interno di essa, la novità, che è la forma propria alla scienza, è data da una riflessione di alcuni che osano andare contro il pensiero dominante.

La scienza è sempre correlata a quella componente essenziale della democrazia che è la presenza di una minoranza che pensa diversamente: la democrazia è certo il formarsi di una maggioranza che “governa” ma è anche questa presenza del diverso – Hitler è stato eletto con una maggioranza relativa. La scienza ne ha bisogno e, a sua volta, rafforza la capacità di esplorare nuove vie, di sviluppare un pensiero critico, quindi rafforza la democrazia. Se invece, ogni volta che si fa una valutazione, si fanno votare, contando a macchina le citazioni, tutti gli esperti di un settore sulla faccia della Terra, si impedisce il formarsi di un modo di vedere diverso, di una scuola di minoranza, futura maggioranza. Non uno dei nuovi modi di pensare la natura ha avuto vita facile all’inizio, talvolta lo dimentichiamo e pensiamo che Galileo sia un’eccezione. Un risultato difficile, una visione profonda e nuova richiede decenni per essere capita, assimilata. Invece, lo “impact factor” delle riviste è calcolato sul numero delle citazioni degli articoli nei due anni che seguono la pubblicazione: incredibile! Si possono citare decine di imprese scientifiche fondamentali i cui testi fondatori sono stati a più riprese rifiutati e, poi, citati, ripresi, sviluppati, decenni dopo. Ma questo è normale, è (quasi) giusto: ci sono tante sciocchezze che circolano, bisogna esser prudenti prima di pubblicare, citare novità sorprendenti… Ma se si trasforma questa prudenza ordinaria in metro di valutazione, la scienza chiude bottega. Con la bibliometria, le reti di computer vengono usate non per rendere la conoscenza di tutti a disposizione di tutti, novità fantastica di oggi, ma per “normalizzare”, per chiedere a tutti di adeguarsi al pensiero di maggioranza, per canalizzare tutti verso la scuola più forte o addirittura verso la banalità, il senso comune, la moda. La valutazione deve essere affidata ad un gruppo di persone, che cambiano e che si prendono la responsabilità di capire e giudicare, di cogliere la novità, nei limiti dell’umano, non a macchine che contano.

Altro e nuovo ostacolo all’invenzione scientifica è la prassi crescente di finanziare la ricerca sempre più o solo con grandi, grandissimi progetti. Una prima conseguenza è che si attribuiscono borse di dottorato e post-dottorato sempre più o solo all’interno di grandi progetti. La borsa di una istituzione, data allo studente con un buon cursus di studi, qualunque sia il suo progetto di tesi, gli permette di allenarsi alla ricerca con la ricerca, ma anche di cambiare tesi, direttore… cambiare idea. Inquadrato invece in un enorme progetto, deve mirare a dimostrare o confortare la tesi di quel progetto, a tutti i costi anche… se gli dovesse sembrare falsa. Gli anni di formazione di un pensiero critico, originale, che sappia dire “no, non è come tutti pensano”, divengono così anni di formazione di uno yes-man (o woman). Il fenomeno è ormai impressionante negli USA, sta diffondendosi anche da noi, con il dominare dei finanziamenti a progetto. A questo riguardo, va detto che, in seno alla Comunità Europea, si sta attuando una palese violazione degli accordi di Nizza e Lisbona, che si ricordano anche per il mito di raggiungere il 3% del PIL in finanziamento della ricerca ed università, entro il 2010, in tutta Europa (in Italia siamo passati sotto l’1%, se non erro: talvolta il numero 3 è sacro, tal altra meno). In essi si diceva che il finanziamento della ricerca finalizzata, a progetti, sarebbe spettata alla Comunità Europea; quella di base o fondamentale, ai singoli Stati, tramite il finanziamento delle istituzioni di ricerca ed universitarie. Invece, in ogni Stato, i governi hanno detto: facciamo come in Europa, finanziamo principalmente progetti. Così, in Francia, i fondi ricorrenti del CNRS, importantissima istituzione scientifica, sono stati dirottati sull’ANR, agenzia di finanziamenti a progetto. In Italia… si è principalmente ed ulteriormente diminuito il finanziamento della ricerca tutta – procedendo, a partire dalla riforma Berlinguer-Prodi, ad un graduale e costante smantellamento di università e ricerca.

La questione a mio avviso non ha solo a che fare con la conoscenza umana, ma con la volontà di annullare una componente essenziale del pensiero critico. Il lavoro a progetto, molti a 5 anni, ricorda i piani quinquennali della defunta Europa dell’Est. I colleghi polacchi – in Polonia è sempre esistita un’ottima tradizione di matematica – mi raccontavano che, nei piani quinquennali di ricerca, bisognava indicare esattamente i risultati attesi, i “deliverables” si dice oggi a Bruxelles. Loro avevano imparato a promettere… risultati già ottenuti, tenuti appositamente in un cassetto. La difficoltà era la prima volta: allora, nello scrivere le tesi di dottorato, facevano in modo di non render pubblico qualche risultato importante, da usare in futuro. Oggi, si tende piuttosto a fare super promesse: alcuni articoli, in un libro ineguale, ma molto interessante, “Pourquoi tant de promesses?”, analizzano in dettaglio alcuni progetti europei “flagships”, da un miliardo o più l’uno, ottenuti da colleghi abilissimi a promettere progressi fantasmagorici, ma in quadri ortodossi, ben consolidati, quindi comprensibili da tutti, persino dal manager, dal politico (nel cervello in silicio, si recita in uno di essi, potremo studiare l’Alzheimer ed il Parkinson… ri-programmare le deficienze cognitive… questo ricorda l’uomo-DNA nel CD-rom di cui sopra).

La “cultura” neoliberista, con il mito dell’individuo separato e della massimizzazione dell’utile, in che modo influisce sulla ricerca scientifica e sulla creazione di un sapere che sia finalmente “complesso” e all’altezza dei tempi?

La nozione di “Risorse Umane”, che analizza il lavoro come le risorse materiali, e l’ottimizzazione di tutte le componenti della produzione con i metodi matematici della “programmazione lineare”, sono stati entrambi inventati nell’ex-URSS. Sono poi passate alle nostre grandi imprese e, da queste, ai settori pubblici e agli Stati: non sono quest’ultimi da governare come grandi imprese, governo dello Stato da affidare al “Migliore” degli imprenditori, con un partito centralizzato e autoritario come il peggiore dei partiti stalinisti che si sia visto nelle nostre democrazie? E così il cerchio si chiude. Nello Stato-Impresa, scientismo e governo si mescolano benissimo: il mito del governo puramente tecnico, da affidare agli ingegneri del Gosplan, la “governance” si dice oggi. Lo scientismo, osserva un mio amico matematico pure a Parigi, Alessandro Sarti, chiede alla scienza di capire il mondo e, poi, di governarlo con metodi di ottimizzazione. Alain Supiot, in “La gouvernance par le nombres”, spiega bene la differenza fra la “governance” ed il governo della legge.

La prima è la gestione “oggettiva”, secondo regole formali, potenzialmente meccanizzabili, indipendenti da ogni contesto e che formalizzano metodi di ottimizzazione. La legge umana è invece interpretata, discussa in primis sull’agorà al momento della approvazione, poi dal governo o dal giudice che la applicano, nei loro ambiti, e le danno senso contestuale. Il significato, in effetti, di “legge della natura” si è articolato a quello di legge degli uomini (e degli dei) in modo molto interessante, nelle diverse culture (v. ilprogetto che dirigo all’IEA di Nantes). La regola, basata su scritture numeriche o formali, è gestibile da automatismi, che si voglio indipendenti dalle ambiguità interpretative, al più ne va fatto un “fine tuning”. Negli accordi Merkel-Sarkozy, ad esempio, è scritto che la punizione per gli Stati trasgressori delle regole sul deficit avrebbe dovuto scattare in “modo automatico”, potenzialmente meccanizzabile.

La questione primaria è per me quella della democrazia, della legge da discutere ed interpretare, del senso dello stare insieme, nella possibilità reale del dissenso e di poter organizzare il dissenso: l’analisi, sia dello stalinismo sia del neoliberismo, all’europea o all’americana, ne segue, ne è subordinata. Per continuare il parallelo, Alain Supiot spiega che, negli accordi fra la Troika ed il governo greco, del luglio 2015, si è chiesto al governo greco di confessare le sue colpe riguardo al debito pubblico (ampiamente ereditato), di rinnegare le sue politiche ed il risultato del referendum, quindi di fare “alégéance” alla Troika, scrive Supiot, giurista. Alégéance è il termine d’uso medievale di omaggio e subordinazione al signore feudale. Del resto, le grandi corporations americane hanno lo statuto di persona giuridica con un ruolo assimilabile al corpo mistico-giuridico del signore medievale, identificato alla sua proprietà/feudo, sin dal Securities Act del 1933, che non ha, per ora, pari in Europa. All’interno di alcune grandi corporations illuminate, come IBM, ATT – Bell Labs o Digital, con cui ho collaborato negli anni ’80, esistevano spazi di libertà di ricerca straordinari: forti gruppi di ricercatori potevano pensare liberamente, protetti dal signore/corporation, grazie ad una visione illuminata e di lungo periodo della ricerca anche industriale. Apple, Google e Microsoft si concedono ancora oggi piccoli fiori all’occhiello, centri di ricerca autonomi con poche decine di persone libere di pensare, non le decine di migliaia che facevano ricerca, in tutte le direzione possibili, nell’industria americana fino all’inizio degli anni ’90. Le prime due hanno in effetti iniziato con grandi idee innovative, alle fine degli anni ’70 ed ’80, ma sembrano poi iterare sempre più in piccolo e più veloce le stesse idee, ci ritornerò più sotto. Roberto Di Cosmo, professore di informatica a Parigi, racconta invece la resistibile ascesa di Microsoft in “Le hold-up planétaire”, uno dei momenti di svolta, negli anni ’80. Più in generale, il forte calo della ricerca industriale negli ultimi 20 anni è descritto da molti autori (si veda LoSe per analisi e riferimenti): la trasformazione della proprietà industriale in azionariato, gestito da menagers universali, intercambiabili, che devono solo far aumentare il valore delle azioni, a breve, brevissimo termine, ne è una delle cause.

E’ evidente, per riprendere il tema della sua domanda, che tutto ciò è lontanissimo dall’aiutarci a porre il problema della complessità del mondo: la distanza l’ho descritta parlando del metodo e dei modi della ricerca, come lei mi chiede. Non esiste infatti una attività di ricerca senza un suo metodo e senza un’etica. Quest’ultima è il saper fare un passo di lato, mettere in dubbio i propri stessi principi di conoscenza, darsi il tempo della riflessione senza sapere bene dove si va ed esser disposti ad essere giudicato, assunto, promosso, sulla base del lavoro creativo svolto, non di promesse. Se si demolisce l’etica della ricerca, la passione di conoscenza, nessuna ingegneria istituzionale potrà permettere di valutare correttamente l’attività svolta, né di finanziare progetti finalizzati, che sono pure necessari; i grandi problemi dell’ecosistema, ad esempio, ne hanno fortemente bisogno. Ma se si fa solo Big Science, si uccide la scienza: nessun progetto di cui si vede sin dall’inizio l’applicazione finale potrà mai essere molto innovante. La vera novità, anche tecnica, è sempre arrivata, spesso molto tempo dopo o come fall-out indiretto, da una ricerca che proprio non immaginava di ottenerla.

Quali effetti può generare sul cervello umano e nell’immaginario collettivo la diffusione capillare di nuove tecnologie asservite alla logica dell’accumulazione economica e della novità continua?

Siamo di fronte ad una biforcazione importante: strumenti straordinari di interazione e scambio possono invece essere usati per normalizzarci, farci “seguire la regola”, diventar tutti uguali. Le reti mettono ognuno nella posizione ricchissima di incontro con chi è lontano, con chi è diverso, di accedere alle conoscenze dell’umanità tutta. Lo scambio di culture, idee, oggetti… è stato al cuore dei momenti più alti della nostra storia, dalla Grecia all’Italia rinascimentale, centri di scambi intensissimi, in tutto il Mediterraneo ed oltre. Con ben altra velocità possiamo far ben di più. Ma, al contrario, si può usare la rete di computer come “campo medio”, nel senso della fisica: con troppi vicini, non si riescono ad avere singolarità, si diventa tutti grigi. Un uso di questo tipo lo abbiamo visto sopra: il DNA, il cervello, le leggi dell’uomo… sono tutti degli insiemi di regole formali, istruzioni e programmi, tutti dello stesso tipo, come nei computer, semmai arricchiti con un po’ di aleatorio di rete. Uno strumento, il computer, che molta scienza usa benissimo come ausilio a capire il mondo, nella modellizzazione per esempio, viene così impiegato per appiattire il mondo o viene addirittura identificato con il mondo, nuovo senso comune della meccanicità. Ed organizza anche la nostra attività, come con le valutazioni computerizzate del lavoro, di cui la bibliometria è un esempio, sorpassato in gravità dai test a risposte multiple numeriche, con cui si valuta la “performance” degli scolari, test simili da Djakarta ad Helsinky, e da molte altre valutazioni di performance, tutte metodologicamente identiche, sottratte al giudizio qualitativo, e che tanti subiscono nei posti di lavoro più diversi.

I modi di vita ne sono profondamente modificati e l’immaginario è sempre sotto la pressione di presunte macchine che, si promette sin dagli anni ’70, avrebbero rimpiazzato l’uomo in tutto. Come lo rimpiazza l’androide che, in Blade Runner (1982), ha una relazione d’amore con Harrison Ford, androide (o ginecoide?) del tutto indistinguibile da una donna, nel 2019 – in realtà è una bellissima attrice, ne sono certo. Sin da quegli anni, gli uffici delle Poste e le banche investono per sottrarre l’uomo al lavoro tremendo dei centri di smistamento postale o di lettura degli assegni: i progressi, però, sono modestissimi. Ogni giorno invece ci si dice: attenzione, accettate qualsiasi condizione di lavoro e perdita di diritti, perché altrimenti, fra poco, verrete rimpiazzati da macchine – costruzione mirata di un immaginario collettivo. Questo rimpiazzamento è già avvenuto, ma da decenni, grazie a macchine a controllo numerico, nelle catene di montaggio, dove l’iterazione identica dei gesti è il mestiere proprio della macchina digitale. Per il resto, è più una costruzione di un immaginario adeguato alla subordinazione alla regola, alla valutazione meccanica, alla governance invece del governo.

Novità continua? Certo, siamo circondati, travolti da mille nuovi gadgets, ma il substrato tecnico-scientifico è quasi sempre lo stesso, da una ventina di anni. Une delle idee scientifiche fondamentali che contribuiscono a queste valanga di gadgets, è la scoperta della magnetoresistenza gigante da parte di Albert Fert, Università di Paris XI, e Peter Grünberg a Jülich, in Germania, negli anni ’80, per cui ebbero il premio Nobel per la fisica nel 2007. Immediatamente, aziende con propri settori di ricerca, soprattutto negli USA, ne colsero il rilievo pratico, la svilupparono, e così sono nate quelle memorie digitali che, finora, raddoppiano ogni due anni circa. Grazie a memorie crescenti, si mettono sempre più dati e programmi, in oggetti sempre più piccoli e si è reso possibile uno splendido artigianato delle “applicazioni” software. Ma la vera novità scientifica, Fert-Grünberg, ha circa trent’anni, arricchita da varianti originali di metodi di programmazione che ne hanno una ventina.

Se leggete i giornali della fine degli anni novanta troverete annunci molto simili a quelli della Google Car e… dove sono finiti i Google Glass di due anni fa? Promesse fantasmagoriche, con qualche ricaduta in gadgets più o meno comodi che abbiamo in auto. Così, stuoli di eccellenti programmatori e giocatori di scacchi (IBM, 1997) e Go (Google, 2015), han messo in memorie sempre più grandi decenni di partite giocate da uomini. Quindi, algoritmi molto ben disegnati generano a caso milioni di strategie Go al secondo, con il Metodo di Montecarlo (1950), ed algoritmi di apprendimento statistico memorizzano le più efficaci, secondo il contesto del gioco. Così, i poveri campioni di scacchi e Go hanno giocato e perso contro stuoli di avversari e decenni di strategie umane, memorizzate in macchine che iterano identicamente, salvo la generazione aleatoria di strategie, e contro algoritmi di memorizzazione statistica comparativa (lo chiamano Deep Learning), indubbio progresso dell’arte della programmazione – come la definiva Knuth, grande dell’informatica – per di più di origine accademica, non industriale. Ovviamente questo non ha nulla a che vedere con la visione figurata del gioco, il “vedere” umano di una dinamica di configurazioni, ampiamente qualitative, organizzazione tutta umana della combinatoria altrimenti insensata del gioco.

Ma forse il colmo di questa, tutta costruita, presunta, minacciosa umiliazione dell’uomo, scoop pubblicitari per chi ci crede, è la nuova moda del Data Mining a-scientifico in Big Data. Questi dovrebbero predire dinamiche di ogni sorta e guidare l’azione, senza bisogno di ipotesi, teorie, conoscenza (Anderson, 2008). I Big Data e le loro tecniche di analisi statistica sono una grandissima opportunità, se usati per fare ipotesi, vagliare teorie, proporne di nuove. Invece, con una moda che si è diffusa in modo virale, si dice di poter ottimizzare il pensiero, riducendolo a zero: algoritmi abbastanza potenti possono “rimpiazzare la conoscenza scientifica” (sic!). Più grande è la base di dati, yotta di yotta bytes, più si può fare a meno del pensare: le macchine scopriranno regolarità che la scienza non vede, ma che sono sufficienti per la predizione e l’azione – “uccidiamo sulla base dei meta-data”, ha dichiarato l’ex-direttore della CIA, M. Hayden, in un dibattito recente. Per fortuna, la matematica permette di dimostrare l’assurdità di queste promesse. C. Calude, matematico dell’Università di Auckland (NZ), ed io, lo abbiamo mostrato, in un articolo semplice, ma basato su risultati classici non banali, il “Deluge of Spurious Correlations in Big Data“; in breve, comunque si fissi una “corrispondenza regolare fra numeri”, esiste una numero di elementi, una cardinalità, tale che ogni insieme di quella cardinalità contiene quella corrispondenza (in particolare quindi un insieme di lanci di dadi o di misure quantistiche: la corrispondenza allora è del tutto spuria, dovuta al caso, e non consente affatto di predire, di agire). Così, questi autori di algoritmi per non pensare, che dicono di ignorare per principio la teoria degli algoritmi, la teoria ergodica e quella combinatoria dei numeri, che noi convochiamo nell’articolo, sbattono contro il muro dei limiti interni che queste teorie sanno dimostrare: l’aleatorio si infiltra inevitabilmente nei grandissimi insiemi di numeri, impedendo ogni predizione, se non si fa ricorso ad un pensiero che dia senso, permetta di scegliere quel che conta e che può essere utile per capire e per predire, se possibile. Del resto, la forza della conoscenza scientifica è anche quella di sapere, in ogni teoria, dimostrarne i limiti, esplicitare la prospettiva che permette di far scienza: chi dice di capire o poter far tutto con un unico oggetto o strumento, il DNA, gli algoritmi… sicuramente sbaglia. Di nuovo, il DNA, gli algoritmi… sono importantissimi. Il primo è la portentosa traccia chimico-fisica dell’evoluzione, continuamente usata dalla cellula per produrre proteine, a partire dal moto browniano del proteoma (primissimo aleatorio funzionale in biologia). I secondi stanno cambiando la nostra vita, potenzialmente in meglio, se in entrambi i casi si capisce l’incompletezza di ogni approccio monocorde al reale (v. Incompletezza).

In questa follia del “tutto è istruzioni e regole formali”, con una punta di aleatorio generato ad hoc, si fa spesso riferimento ad Alan Turing, inventore della Logical Computing Machine (1936), con una vulgata fuorviante del suo lavoro. Così, indignato, ho preso carta e penna (no, il mio computer con Linux) e gli ho scritto una lettera, in italiano (a dire il vero sono stato invitato a scriverla). Spero che aiuti ad andar oltre un immaginario collettivo, come lui ha saputo fare falsificando ipotesi comuni, nonché a pensare alla “prossima macchina”. Infatti, sia detto fra noi, questa digitale e le sue potentissime reti sono forse un po’ noiose, con il loro iterare sempre identico: se uno lancia e rilancia (“restart”) la simulazione numerica di una turbolenza o apre una pagina web in Giappone, queste sono sempre identiche. Questo è insensato per una dinamica fisica non-lineare, come per una struttura linguistica, poiché nessun uragano, nessun umano si ripete in modo identico. Persino in rete, metodi raffinati di interleaving e semafori rendono l’aleatorio del continuo spazio-temporale o quantistico senza effetti, un “do not care”, dicono gli esperti, quelli veri, dell’informatica difficile della concorrenza e delle reti, che funzionano con esattezza computazionale, secondo le regole, eliminando il “rumore”.

Fa parte dei compiti della scienza mettere in evidenza la diversità dell’umano e nell’umano, a partire dal biologico, dove la diversità, la non identità, la variante inattesa, non è rumore da eliminare, è invece ciò che rende possibile il vivente, la grande intuizione di Darwin, v. BraLo (Unconventional-Nature). Questo ci farà anche usare meglio questa formidabile macchina a stati discreti e le sue reti e, sicuramente, inventarne di nuove, come gli esseri umani sapranno certamente fare, se rompiamo l’obbligo di lavorare tutti nelle stesse modalità di pensiero, valutati da tecniche normalizzanti, in competizione fra ricercatori quasi identici, con gli stessi obiettivi. La ricerca scientifica è il dialogo difficile fra prospettive lontane, la collaborazione fra diversi ad idee improbabili, ma profonde. Ha bisogno della democrazia ed è una componente essenziale della democrazia.

Send to Kindle
Tag: , , , , ,

6 Comments

  1. La ricerca europea non è ricerca. È business, lavoro per burocrati e passacarte, è costosissima in termini di burocrazia, serve a finanziare in alcuni casi aziende decotte, industrie bene ammanicate e amici degli amici. Diciamo che il 90% è così oggi. Mantiene stuoli di burocrati . Anche in Usa. Questa è la ricerca moderna.

  2. La ricerca europea e’ lavoro per burocrati e passacarte, è costosa in termini di burocrazia, serve a finanziare in alcuni casi aziende decotte. Quando non vi sono frodi vere e proprie. Gli ingenti capitali mossi (progetto graphene ad esempio, un miliardo di euro) servono a mantenere migliaia di posti di lavoro. L’indotto è quindi prevalentemente finanziario. Diciamo che il 90% è così oggi. Mantiene stuoli di burocrati e finanza . Anche in Usa. Questa è la ricerca moderna.

  3. Veramente un bellissimo saggio, pieno di riflessioni e collegamenti che non mi ero mai posto prima. Grazie.

  4. indrani maitravaruni says:

    Perciò vogliono stroncare i posti a tempo indeterminato: persone libere, non ricattabili, con la sicurezza di uno stipendio a fine mese sono meno sensibili ai loro ricatti.
    Non parliamo poi dell’odio verso il sapere umanistico: pensare a millenni di storia umana con tutti i suoi prodotti artistici, linguistici e letterari deve farli schiumare di rabbia. Come si permettono alcuni giovani di voler studiare tutto questo? Sterminio!

  5. aristotele says:

    bellissimo articolo, già linkato ad altri (forse ne occorrerebbe un riassunto) – condivido anche indrani, si capisce – aggiungo un piccolo rinvio contestualizzante:
    http://www.ilfattoquotidiano.it/2016/09/14/come-si-uccide-luniversita-italiana/3032203/

  6. Pingback: Anonimo scientifico – Bollettino telematico di filosofia politica

Leave a Reply

Sostieni ROARS

Sostieni ROARS