Un quotidiano belga a grande diffusione come Le Soir ha pubblicato a fine agosto un articolo dal titolo Voyage en absurdie: les rankings des universités. Il giornale generalista più letto dalla comunità francese del Paese mette a nudo criticamente e impietosamente le fallacie delle “classifiche” universitarie, un fenomeno alimentato dall’attitudine dei media a riprodurre puntualmente con grande enfasi i dati popolanti questi rankings, ben noto anche alle nostre latitudini. Noi lo descriviamo da tempo avendo coniato il neologismo “Rankismo“. Il Rankismo è tanto osannato dai media quanto combattuto da ROARS fin dal suo primo anno di attività. Grazie a lui si possono lanciare titoli come “L’Università X entra fra le prime N Università mondiali e scavalca la prestigiosa Università Y”, con la complicità degli uffici stampa degli atenei, che – ovviamente solo in presenza di un miglioramento – si affrettano a diramare comunicati stampa dove magnificano il risultato conseguito. Del resto, quei media sono gli stessi che introitano gli investimenti pubblicitari profusi dalle Università ogni estate per segnalare la propria attrattività all’ignaro grande pubblico dei non addetti ai lavori. Per conseguire piazzamenti onorevoli, gli atenei investono grandi energie e risorse economiche, coltivando l’ambizione di salire in classifica, e mostrare agli occhi dei futuri studenti e delle loro famiglie “l’eccellenza” raggiunta dal proprio ateneo. Il climax arriva quando al rettore dell’Università salita in graduatoria viene dato spazio in un occhiello a margine della pubblicazione della classifica, dove il magnifico può ribadire l’eccellenza del suo ateneo e gli sforzi fatti per raggiungerla. In questo post ripercorriamo quanto si può leggere in un grande giornale belga, consapevoli che articoli del genere non vedranno mai luce sui media generalisti che parlano alla pubblica opinione in Italia. Che continueranno a far finta di niente, in attesa di lanciare con l’enfasi di sempre la prossima classifica.


L’estate, tempo di classifiche

L’articolo di Le Soir comincia sottolineando che, come ogni fenomeno di marketing, il “Rankismo” ha la sua stagione: l’estate. È questo il tempo di scelte delicate, quando i futuri studenti svolgono delicate valutazioni in famiglia per decidere quale Università frequentare per coltivare le proprie ambizioni formative. Mentre sotto l’ombrellone i media ammanniscono le più svariate classifiche (il calciatore dell’anno, l’attore più pagato al mondo, l’uomo più ricco del mondo), la Shanghai Ranking Consultancy, perpetuando una tradizione avviata nel 2003, diffonde gli “Shanghai Rankings”. L’edizione 2020, pubblicata il 15 agosto, ha classificato l’Università di Harvard prima e due Università belghe (UGent e KULeuven) tra le prime 100 al mondo.

I media belgi si sono avventati su questi dati con voluttà. Lanciando su più colonne titoli forti come: “se Harvard è la migliore Università del mondo, UGent è la migliore Università belga”. In generale, i rettori delle Università belghe che hanno scalato qualche gradino in classifica si sono affrettati a gonfiare il petto, divulgando trionfanti comunicati stampa. Hanno, invece, mestamente taciuto i rettori regrediti nei ranking.

Il governo dei numeri

L’articolo prosegue stigmatizzando quanto sia assurdo pensare che una Università possa essere “la migliore del mondo”, o che “l’Università X sia migliore dell’Università Y”. Perché ogni ateneo svolge più funzioni e si pone i propri obiettivi. Paragonare l’ottima ricerca in biologia dell’uno con l’eccellente qualità dell’insegnamento in antropologia dell’altro non ha, semplicemente, alcun senso. E voler riassumere queste caratteristiche composite e diversificate in un numerino, come mostrano di credere i talebani del “governo dei numeri” (a proposito, a chi sia sfuggita, consigliamo un’analisi a tutto campo di questo fenomeno dei nostri tempi, purtroppo non tradotta in Italia: A. Supiot, La gouvernance par les nombres, Paris, 2015), è un’offesa all’intelligenza, prima ancora di rappresentare un colpo esiziale per la dignità dell’Università.

Del resto, sottolinea Le Soir, le classifiche universitarie pubblicate si moltiplicano ogni anno. Le più note sono quelle di Times Higher Education (THE), Shanghai, Leiden, Quacquarelli Symonds (QS), U-Multirank e in Italia, aggiungiamo noi, quelle del Censis. Sono tutte classifiche diverse. Perché ciascuna di esse utilizza criteri differenti. Per esempio, l’ultima classifica THE, “famosa” quanto e più di quella di Shanghai, mette sul podio Oxford, California Institute of Technology e Cambridge; Harvard scende al settimo posto, mentre KULeuven diventa regina in Belgio. Ed ecco esplodere le polemiche: i giornali che proclamavano Harvard “migliore” Università del mondo e UGent la migliore del Belgio hanno mentito. Ovvio. Tutto dipende dai differenti criteri utilizzati da questi istituti di classificazione.

Criteri infallibili?

E allora Le Soir ci porta a guardare più da vicino i criteri usati da queste classifiche. Cominciando da quelli di Shanghai (anche nota come ARWU). Che sono sei. Quattro guardano solo alla ricerca, ciascuno dei quali pesa per il 20% della valutazione finale: 1) i premi Nobel per la fisica, la chimica, la medicina e l’economia, oltre alle medaglie Fields in matematica vinti dallo staff dell’ateneo; 2) il numero di articoli pubblicati sulle riviste Nature and Science; 3) il numero di autori altamente citati; 4) il numero totale di articoli scientifici censiti da Clarivate. Qualcuno potrebbe osservare che queste cifre ignorano i premi Nobel per la letteratura e che le scienze sociali e umane sono praticamente irrilevanti. E come misura l’insegnamento Shanghai (per quel poco che vale la didattica nella classifica che diffonde)? Il numerino aggiuntivo, che rappresenta il 10% del punteggio complessivo, dipende – si stenta a credere che sia vero – dal numero di ex studenti dell’Università che hanno avuto la ventura di essere insigniti del premio Nobel o della medaglia Fields. Un ultimo criterio, che pesa per il 10%, è la somma pesata degli altri cinque criteri diviso per la numerosità dello staff accademico. Messi sotto una lente di ingrandimento anche grossolana, i criteri di Shanghai rivelano quanto sia assurdo ritenere che una Università sia la migliore del mondo, o del Belgio o dell’Italia, per il semplice motivo che questa Università svetterà su un podio totalmente inconsistente. Sarebbe un po’ come – annota sarcasticamente Le Soir – assegnare il titolo di calciatore dell’anno al giocatore che ha realizzato più goal su rovesciata nella stagione trascorsa. Magari quei piedi saranno pure eccellenti, ma altri calciatori potrebbero aver segnato di più, offerto più assist vincenti, o mostrato una capacità superiore nell’impostare il gioco della squadra. La guerra delle classifiche è una guerra che nessuno potrà vincere, perché “any number beats no number”, chiosa amaramente il giornale belga.

I numeri sono saliti al potere del mondo scientifico agli inizi del millennio e hanno conquistato ogni ambito del mondo accademico. Dalla valutazione individuale del singolo studioso (il celebre h-index, escogitato nel 2005, con subitaneo, travolgente successo, dal fisico argentino dell’Università di San Diego Jorge Eduardo Hirsch, forse anche perché rivelatosi subito idoneo a rappresentare ed assecondare l’ego dei suoi adepti), alla valutazione del prestigio scientifico della rivista (l’altrettanto famigerato Impact Factor o IF, lucrosamente gestito a livello mondiale dalla società Clarivate Analytics dopo essere stato messo a punto da un chimico, che, applicando i suoi algoritmi alle pubblicazioni scientifiche, era divenuto ricco: Eugene K. Garfield, appropriatamente ricordato da Wikipedia anche con la qualifica di “businessman”), al fenomeno – appunto – del Rankismo universitario di cui qui si parla.

Dacci un numero, quale che sia

Questa scalata verso il potere assoluto dei numeri, annota Le Soir, è stata propiziata dall’avvento delle teorizzazioni del cosiddetto New Public Management. Che hanno invaso le Università, mentre si appropriavano del governo di tutti i servizi pubblici. Per i cultori del NPM il mantra è appunto “any number beats no number”, ovvero: “dammi un numero, quale esso sia”. Una vera e propria manna per i valutatori e i decisori del nuovo millennio. Con un numero secco, l’h-index permette di affermare senza tema di smentita che lo studioso X è migliore del suo collega Y. La fede in queste cifre è stata talmente cieca ed incondizionata da consigliare a molti responsabili delle decisioni accademiche di eleggere questi “indicatori di performance” a infallibile bussola delle proprie selezioni, richiedendo ai candidati per posizioni scientifiche, borse di studio e premi, di indicare nel proprio CV il loro h-index, avendo cura di annotare il Journal Impact Factor di ciascuna delle loro pubblicazioni.

Valutare un ricercatore o un gruppo di ricerca sulla base di questi indicatori diviene facile ed allettante. Seduce e assolve. Per pigrizia, e per non sbagliare di fronte all’apparente oggettività dei numeri, i membri dei comitati di valutazione ad ogni livello basano il loro giudizio sulla nuova “scienza” della bibliometria e ne sposano fino in fondo i dettami.

L’indicatore prescrittore

Sennonché – aggiunge Le Soir – quando un indicatore appare in un dominio del sapere, inizialmente avanza mascherato, presentandosi come un neutro strumento di misura. Assai presto quello strumento diventa, invece, un implacabile prescrittore dei comportamenti degli agenti che quello strumento dovrebbe valutare, poiché costoro vengono premiati quando vi si conformano. La potente tendenza ad adattare il proprio comportamento agli standard dell’indicatore induce profonde trasformazioni, se non vere e proprie distorsioni, nei comportamenti dell’agente soggetto a tali indicatori. E la sua efficacia diventa normativa. È la Legge di Goodhart, troppo nota ai lettori ROARS per essere qui nuovamente esplicata.

I molteplici effetti perversi della bibliometria

Come sottolinea Le Soir, non sorprende che questa corsa ai numeri non abbia tardato a produrre effetti nefasti sulla qualità della ricerca e sulle carriere dei ricercatori, in particolare su quelle dei giovani ricercatori. La credibilità delle riviste scientifiche ne è uscita compromessa. La pubblicazione scientifica è ormai una moneta soggetta a drastiche svalutazioni in conseguenza della corsa a pubblicare, che istiga frodi. Gli atenei gareggiano in folli e costose gare, sostituendo gli obiettivi di qualità della ricerca, dell’insegnamento e del servizio alla società con l’imperativo di conseguire numeri che permettano di migliorare il loro punteggio in graduatoria.

Accade così che il giovane ricercatore all’inizio della sua carriera accademica non sia più spinto ad affrontare temi di ricerca veramente innovativi che lo espongano al rischio di fallire. Piuttosto, egli sceglierà di percorrere strade già ampiamente battute, dove potrà produrre senza grossi sforzi e rischi una nutrita messe di pubblicazioni che saranno citate da colleghi in un campo già consolidato. Ma anche il ricercatore senior tenderà a seguire questa strategia, se ha a cuore la sua promozione, il conseguimento di crediti di ricerca e premi. A volte possono passare molti anni prima che un geniale pioniere, che ha intrapreso una nuova direzione di ricerca, venga riconosciuto tale dalla comunità accademica e cominci a essere citato. Nel mentre, i pionieri e le scoperte rivoluzionarie, che richiedono l’assunzione di questi rischi, diventano sempre più rari.

Inutile dire che l’avvento di tali pratiche ha molti effetti perversi, tra i quali spicca la compromissione del benessere dei ricercatori. La salute mentale dei dottorandi – in prima linea, senza rete e sottoposti a feroci competizioni nello sforzo di conseguire una posizione accademica – in Belgio appare un tema particolarmente caldo (K. Levecque, F. Anseel, L. Gisle, J. Van der Heyden & A. De Beuckelaer, The mental health of PhD students in Flanders, ECOOM). Senza contare l’incremento delle frodi scientifiche che questo clima concorrenziale tende a favorire in modo del tutto preventivabile, che si manifesta nell’impennata dei ritiri di pubblicazioni scientifiche registrata negli ultimi anni (R.G. Steen, A. Casadevall & F.C. Fang (2013). Why has the number of scientific retractions increased?, PloS one, 8(7), e68397; S. Gutwirth, & J. Christiaens, Les sciences et leurs problèmes: la fraude scientifique, un moyen de diversion?, Droit en contexte. Revue Interdisciplinaire d’Etudes Juridiques, 2015.74, 21-49).

Ma i danni più gravi si registrano sul fronte delle riviste scientifiche, là dove ormai regna sovrano l’Impact Factor, che misura il numero di citazioni ricevuto da un articolo nel torno di 2-5 anni dalla sua pubblicazione. Per aumentare il loro X-Factor (pardon, IF), alcune riviste sono arrivate al punto di pubblicare un articolo a condizione che l’autore citi un numero sufficiente di articoli pubblicati nella stessa rivista. Discipline come la storia, il diritto o la filosofia, dove tradizionalmente è la monografia a fare la differenza, vengono bistrattate perché nel clima numerico imperante esprimono “prodotti” la cui valutazione non si presta ad essere effettuata con le nuove metriche. È ormai chiaro che l’ossessione per i numeri sta portando la scienza fuori strada.

Per quanto riguarda le Università, alcune di esse hanno compiuto sforzi enormi e profuso risorse ingenti per “scalare le classifiche”. Il sol fatto di essere presenti lì è già un costo. Ogni Università che ambisca ad essere inserita tra le “1.000 migliori Università del mondo”, infatti, deve creare gruppi di lavoro preposti a fornire ai signori delle classifiche tutti i dati richiesti. E le richieste informative di queste istituzioni private delle valutazioni, che agiscono a scopo di lucro, aumentano anno dopo anno. Le Soir non lo dice, ma in Italia la CRUI ha preso assai sul serio il tema, istituendo nel 2017 un’agguerrita Commissione sui ranking, che si propone di: 1) aumentare il numero di Atenei italiani presenti nelle classifiche internazionali; 2) migliorare il piazzamento complessivo degli Atenei nei ranking di maggiore impatto mediatico; 3) elaborare analisi critiche delle metodologie adottate dai principali ranking e formulare linee di indirizzo per le Università italiane al fine di ottimizzarne il posizionamento in graduatoria; 4) proporre eventuali integrazioni e modifiche metodologiche ai gestori dei principali ranking attraverso un’interlocuzione di sistema con le Università italiane.

Assumi il tuo goleador

La caccia alla migliore classifica ha creato un vero mercato per gli accademici, che si agita in preda a dinamiche non diverse da quelle con le quali le società calcistiche si contendono i fuoriclasse del pallone. Alcune Università sono pronte a pagare qualsiasi cifra per accaparrarsi accademici “portatori di numeri da classifica”, anche a tempo determinato, richiedendo loro, in futuro, di citare quell’ateneo nelle loro pubblicazioni.

I campanelli d’allarme

Queste molteplici derive, sviluppatesi in un arco di tempo assai breve nella storia della scienza, hanno indotto la comunità scientifica, così come alcuni esperti di valutazione scientifica, a suonare un campanello d’allarmeConferenze e libri critici sulla valutazione scientifica si moltiplicano. In Belgio è stato pubblicato nel 2011 un lavoro collettivo assai approfondito sulla valutazione della ricerca nelle scienze umane, molto critico nei confronti degli indicatori che stavano per essere imposti (P. Servais – a cura di, L’évaluation de la recherche en sciences humaines et sociales. Regards de chercheurs, Louvain-la-Neuve, Bruylant-Academia, 298 pagine, 2011). Nel 2013 l’Academia Europaea ha organizzato a Stoccolma un colloquio scientifico sul tema “Bibliometria: uso e abuso nella revisione delle prestazioni di ricerca” (Academia Europaea, Bibliometrics: Use and Abuse in the Review of Research Performance, Blockmans, Wim, Engwall, Lars and Weaire, Denis – eds.), Portland Press, London, 2014. Nel 2016, la Royal Academy of Sciences, a sua volta, ha organizzato una conferenza su “La valutazione delle scienze in questione” (Edwin Zaccai coord., L’évaluation de la science en question(s), ouvrage collectif, Académie Royale de Belgique, 176 pages, 2016). Tutto finora invano.

 L’oggettività chimerica

Gli esperti di valutazione scientifica hanno sviluppato criteri di qualità che le classifiche universitarie dovrebbero rispettare per non perdere ogni credibilità. Yves Gingras e Michel Gevers (Y. Gingras, Bibliometrics and research evaluation: Uses and abuses, MIT Press, 2016; M. Gevers, Scientific performance indicators: a critical appraisal and a country by country analysis, in Bibliometrics: Use and Abuse in the Review of Research Performance, Blockmans, Wim, Engwall, Lars and Weaire, Denis – eds., Portland Press, London, 2014) hanno proposto di partire da alcuni punti fermi. Al netto di dettagli troppo tecnici, è fondamentale che l’indicatore di performance utilizzato sia adattato all’oggetto che sta misurando: 1) deve tenere conto dell’inerzia dell’oggetto misurato (la qualità di una Università non può cambiare in un anno); 2) deve essere omogeneo; 3) deve essere insensibile a piccole variazioni nei dati e quindi non può essere basato su numeri molto piccoli; 4) deve, infine, essere standardizzato in relazione alla disciplina, alla dimensione della comunità scientifica corrispondente e al periodo preso in esame.

Shanghai rules!

Solo per fare un esempio, una classifica che avallasse l’idea di consentire a una Università di superare molte concorrenti scalando 40 posizioni nel ranking in un solo anno perché uno dei professori di quella Università ha ottenuto un Nobel per un lavoro avviato 30 anni prima calpesterebbe buona parte di questi criteri. Ad eccezione di U-Multirank, i rankings che vanno per la maggiore sui media violano molti di questi punti fermi per asseverare la qualità di una classifica. Ma la classifica di Shanghai li viola tutti. L’attenzione che ancora oggi i media, assieme a non pochi dirigenti universitari, sembrano inclini a riconoscerle appare davvero incredibile. Essa mostra la deriva manageriale che pesa sull’Università come su molte istituzioni di servizio pubbliche e rivela come la fascinazione per i numeri sia una trappola irresistibile. L’intransigente volontà di mercificare l’università esige oggi di produrre numeri. Il fatto è che questa trappola funziona ancora, per i media, per alcuni rettori e, purtroppo, per una platea crescente di studenti.

Se non ritrova i suoi valori, l’Università rischia la fine della rana

Un numero sempre più alto di comunità scientifiche e di addetti ai lavori della valutazione scientifica è ormai consapevole dei pericoli esiziali che questa ossessione per gli indicatori proietta sul futuro delle nostre Università e sulla ricerca di qualità. Nel 2010 l’Australian Research Council (ARC) aveva classificato migliaia di riviste scientifiche in quattro categorie destinate a rappresentarne – appunto – la qualità. Questa classifica è stata in seguito utilizzata dalle commissioni di valutazione di tutto il mondo, ma ha attirato così tante critiche che l’ARC ha smesso di produrla tre anni dopo averla lanciata. La Carta DORA, sottoscritta da più di 2.000 organizzazioni e istituzioni scientifiche di tutto il mondo, proclama solennemente che l’Impact Factor di una rivista non può in alcun caso essere utilizzato per giudicare le qualità di un ricercatore.

E invece, nel tentativo di “scalare le classifiche”, ogni ateneo s’impegna a rinnovare cieca fedeltà al modello imposto da indicatori di performance congegnati per celebrare il modello delle grandi Università anglosassoni che hanno a disposizione ingentissime risorse, soprattutto se comparate con quelle degli atenei di altre nazioni e, in particolare, di quelli italiani.

È tempo che i media comprendano che non esiste una Università migliore al mondo. E che le nostre autorità universitarie prendano consapevolezza che ciascuna delle nostre università coltiva i propri valori, le proprie specificità e i propri obiettivi, che non possono essere ricondotti a un numero. E che – conclude Le Soir – a furia di avere gli occhi inchiodati sulle classifiche e di fare la rana che vuol diventare più grande del bue – costoro potrebbero un giorno scoprire di guidare un’istituzione che ha più niente di una vera Università.

Le nostre istituzioni accademiche avrebbero molto da guadagnare se si mettessero alla testa di un movimento che si proponesse di uscire dalla spirale distruttiva generata da questo tipo di valutazioni e di classifiche. Rifiutandole e ribellandosi una volta per tutte ai dettami del Rankismo.

Ma siamo in Italia. Attenderemo rassegnati che l’estate ritorni, per leggere di nuove classifiche pubblicate sui nostri grandi giornali e sentir gracidar le rane.

Print Friendly, PDF & Email

2 Commenti

    • Oppure basterebbe avere accettato meno compromessi e fatto meno xxxxxx in passato.

      E anche nel presente, devo dire.

      Se sei Bolt se non arrivi primo arrivi comunque secondo o terzo, se sei il sottoscritto puoi anche doparti, cambiare metro o azzoppare Bolt, ma sempre dietro arriverai.

      Commento della redazione: si prega, pro futuro, di esprimere le proprie opinioni su questo sito evitando espressioni non appropriate.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.