Viene spesso rilevato come le università italiane siano poco o nulla presenti nei vari ranking di confronto internazionale, dove le “eccellenze” sono per lo più nordamericane. «Dobbiamo avere il coraggio di dire che questa storia per cui in Italia non si può affermare che ci siano diverse qualità fra le diverse università è ridicola. Ci sono già università di serie A e di serie B in Italia e rifiutare la logica del merito dentro le università e pensare che tutte siano brave è quanto di più antidemocratico vi possa essere» ha dichiarato il Presidente del Consiglio all’inaugurazione del Politecnico di Torino. Ed ancora: «Bisogna saper riconoscere il merito: non possiamo pensare di portare tutte le 90 università nella competizione globale, allora ci spazzeranno via tutti quanti». Quanto è corretta questa concezione “calcistica” degli atenei? La competizione è tra singole università o tra sistemi universitari (o, meglio ancora, tra sistemi nazionali della ricerca)? Ed ancora: di cosa parliamo quando parliamo di “eccellenza”?

ExpensesHarvardVsFFO

Nessuno nega il valore delle università dell’Ivy League, ma che senso ha confrontarci con Harvard che, con soli 20.000 studenti, ha un bilancio pari al 44% dell’intero Fondo di Funzionamento Ordinario di tutte le università italiane, con i loro 1.670.000 studenti? E quanto conta la dimensione nelle varie classifiche?

Può essere interessante, da questo punto di vista, esaminare il ranking dell’Excellence Rate[1] dello Scimago World Report 2014, la più completa indagine sulla ricerca scientifica elaborata al mondo. L’Excellence Rate misura la percentuale di pubblicazioni scientifiche, prodotte dal singolo ateneo, che rientrano nel 10% dei lavori più citati a livello mondiale. Si tratta pertanto di un indicatore della qualità scientifica dell’istituzione (o, più esattamente, dell’impatto che la stessa ha sulla produzione scientifica internazionale) indipendente dalla dimensione della stessa.

Nel 2014 Scimago ha valutato l’Excellence Rate di 2707 istituti di formazione superiore in tutto il mondo: il confronto tra vari paesi è particolarmente istruttivo. Nella tabella e nel grafico che seguono sono illustrati i valori relativi al livello superiore del 1°, 2°, 3° e 4° quartile (per quest’ultimo anche il valore minimo) rispettivamente per l’Italia, l’Europa Occidentale, e gli U.S.A.

SCImago_Excellence_Rate_QuartilesSCimago_Quartiles_plotI  dati sono particolarmente interessanti. Possiamo affermare che esistono due approcci concettuali alla suddivisione del “patrimonio intellettuale” di ricercatori all’interno dei sistemi nazionali; negli U.S.A., dove vige una logica “di mercato”, che tende a concentrare i migliori ricercatori nelle università più prestigiose (e più ricche), abbiamo valori massimi molto alti: al primo posto c’è la Purdue University Calumet (73,34), seguita da Harvard-MIT Division of Health Sciences and Tecnology (71,87) e da Rockefeller University (67,25). Scorrendo la graduatoria si arriva però a livelli estremamente bassi: la peggiore, al 383° posto, è la Texas A&M University Corpus Christi (9,91). La distanza tra la migliore e la peggiore istituzione è pertanto di ben 63,43 punti percentuali. In Italia i valori massimi sono più bassi: ai primi tre posti abbiamo la Scuola Normale Superiore di Pisa (50,44), il Politecnico di Bari (46,68) e l’Università Vita-Salute San Raffaele (45,45). Il valore minimo (Università di Messina) è però relativamente elevato (19,86): addirittura doppio del corrispondente americano. La distanza tra migliore e peggiore istituzione è pertanto in Italia di “soli” 30,58 punti percentuali (la metà che negli U.S.A.). I valori mediani sono molto simili: 29,83 negli U.S.A., 30,83 in Italia.

Prendendo in considerazione i singoli quartili, si nota che in entrambi i paesi il secondo ed il terzo quartile sono molto “affollati”: complessivamente il 50% “centrale” delle università è compreso in un range di 13,8 punti percentuali negli U.S.A., e di appena 5,46 in Italia. In tutti i due casi, inoltre, la distribuzione del 1° quartile (che rappresenta l’eccellenza nazionale) è piuttosto “sgranata”. Il numero di istituzioni investigate (383 per l’U.S.A., 64 per l’Italia) è comunque abbastanza elevato, e la distanza tra le singole posizioni abbastanza ridotta, da conferire a queste elaborazioni statistiche una sufficiente rappresentatività.

La situazione aggregata dell’Europa occidentale (in cui ci sono paesi molto vicini al modello statunitense, come il Regno Unito, ed altri, come la Germania, più simili a noi) è in qualche modo intermedia tra Italia ed U.S.A., con un valore massimo (London Business School) di 54,49, ed un minimo (Universite Charles De Gaulle Lille III) di appena 6,02 (range massimo-minimo: 48,47).

Prendendo in considerazione un altro parametro di impatto dei prodotti della ricerca, sempre indipendente dalla dimensione della singola istituzione: il Normalized Impact (come definito dal Karolinska Intitutet svedese ed elaborato da Scimago)[2], si riscontrano differenze analoghe, come mostrato nella tabella e nell’istogramma seguenti:

SCImago_Normalized_Impact_QuartilesSCimago_Normalized_Impact_plot

Dall’esame dei dati si possono trarre alcune considerazioni di un certo interesse:

  • In Italia il livello mediano di impatto delle pubblicazioni universitarie sulla ricerca internazionale è sostanzialmente pari a quello U.S.A. (leggermente superiore per l’Excellence Rate, leggermente inferiore per il Normalized Impact). Ciò significa (in prima approssimazione) che i nostri ricercatori sono, mediamente, almeno altrettanto validi e produttivi di quelli statunitensi (e ciò nonostante le enormi differenze nei rispettivi livelli di finanziamento). Sono però distribuiti in modo molto più omogeneo (o casuale, il che – statisticamente – ha quasi lo stesso significato).
  • L’eccellenza U.S.A. è concentrata su poche università. In entrambi i ranking esaminati, il migliore ateneo italiano, se “trasferito” in U.S.A., si collocherebbe al 12° posto, insieme o al di sopra di prestigiosissime istituzioni come Columbia, Yale o U.C.L.A., per fare qualche esempio. Reciprocamente, meno del 3% delle università statunitensi si collocherebbe in testa alla classifica italiana.
  • La distanza tra le migliori e le peggiori università è in U.S.A. più che doppia rispetto alla situazione italiana. Alle (importantissime, ma poco numerose) eccellenze fanno da “contrappeso” un numero molto maggiore di istituti con risultati estremamente bassi. In particolare, il 15% circa delle Università U.S.A. è al di sotto della peggiore posizione italiana per quanto riguarda l’Excellence Rate (addirittura il 21% per il Normalized Impact).
  • La situazione aggregata dell’Europa occidentale è in qualche modo intermedia, con livelli particolarmente bassi (al di sotto dei valori U.S.A.) nel 4° quartile.

Le elaborazioni sopra riportate differiscono, anche in maniera molto significativa, da altre più ampiamente pubblicizzate, in quanto rigidamente indipendenti dalla dimensione. E’ ovvio, infatti, che essere “grosse” Università non implica necessariamente essere “grandi”: nella classifica mondiale Scimago per output (numero assoluto di paper Scopus pubblicati)[3] la prima Università Italiana è la Sapienza di Roma, al 58° posto. Una sua ipotetica “fusione” con l’Alma Mater di Bologna (2° in Italia, 95° al mondo) creerebbe un soggetto che – nella stessa classifica – sarebbe tra le prime 10 università del pianeta, ma ciò non aggiungerebbe una virgola alla qualità della ricerca universitaria in Italia.

Tutto ciò significa che – per conservare la metafora calcistica così cara al Presidente del Consiglio – la nostra “nazionale” è assolutamente competitiva a livello internazionale (nonostante, lo ricordiamo, il sistema universitario nazionale risulti largamente sotto finanziato rispetto ai competitors internazionali), mentre il nostro “campionato” è molto più livellato che negli U.S.A. Potremmo dire che gli atenei italiani giocano tutti in serie A, anche se con posizioni diverse in classifica.

Si può migliorare la situazione, in termini di assoluta meritocrazia? Certo! Ma bisogna intendersi: se si continua a spostare risorse dalle università “deboli” (o ritenute tali) a quelle più “forti” (ma in realtà, come ha dimostrato il Prof. Viesti nei suoi approfonditi studi, lo spostamento è più da sud a nord) si può far bella figura in Champions League, ma non ai Mondiali, dove ciò che conta è il coacervo nazionale. Bisogna premiare i ricercatori migliori – dovunque si trovino – commissariare, se necessario, gli atenei mal gestiti (ce ne sono: al sud, ma anche al centro e al nord) e lavorare affinché non solo il livello medio e mediano delle nostre università si innalzi ancora, ma anche la distanza tra migliori e peggiori diminuisca ulteriormente; condizione questa essenziale se si vuole salvaguardare il valore legale del titolo di studio, che trova fondamento proprio nella garanzia di standard (minimi e medi) sufficientemente livellati.

Così come si incentivano i pubblici ministeri ad andare nelle procure delle aree geografiche più difficili, bisogna intervenire (se necessario con misure straordinarie, ma non sterilmente punitive) sugli atenei meno efficienti per innalzarne la qualità. Condannarli alla marginalità, o addirittura alla scomparsa, significherebbe condannare gli incolpevoli territori che li ospitano, così come accade quando si penalizzano scuole o ospedali nelle province più problematiche: la meritocrazia va applicata ai singoli, non alle comunità!

Champions_o_Mondiali[1] Excellence rate indicates the amount (in %) of an institution’s scientific output that is included into the set of the 10% of the most cited papers in their respective scientific fields. It is a measure of high quality output of research institutions (SCImago Lab, 2011; Bornmann, Moya-Anegón and Leydesdorff, 2012; Guerrero-Bote and Moya-Anegón, 2012). This is a size-independent indicator.”, http://www.scimagoir.com/methodology.php.

[2] “Normalized Impact of led output is computed using the methodology established by the Karolinska Intitutet in Sweden where it is named “Item oriented field normalized citation score average”. The normalization of the citation values is done on an individual article level. The values (in decimal numbers) show the relationship between an institution’s average scientific impact and the world average set to a score of 1, –i.e. a NI score of 0.8 means the institution is cited 20% below world average and 1.3 means the institution is cited 30% above average (Rehn and Kronman, 2008; González-Pereira, Guerrero-Bote and Moya- Anegón, 2011).This is a size-independent indicator.”, http://www.scimagoir.com/methodology.php.

[3] “Total number of documents published in scholarly journals indexed in Scopus (Romo-Fernández, et al., 2011). This is a size-dependent indicator.”, http://www.scimagoir.com/methodology.php.

Send to Kindle

7 Commenti

  1. meglio puntare sui precari!!!

    ci sono 2 tipologie di precari.

    1) chi porta e ha portato “il cappuccino al capo” e pretende di entrare solo per questo.

    2)chi, oltre ad aver portato il “cappuccino al capo” (che in Italia sembra requisito essenziale) di giorno, di notte si è spaccato la schiena lavorando sodo e creandosi un curriculum con 1000 libri, 1000 pubblicazioni, 1000 contratti di insegnamento ed è ancora fuori dal sistema con contratti che scadono e che non ci sono più…….

    Secondo voi, va premiato il precario?
    Secondo voi, quale tipologia di precario va premiata, la 1) o la 2)?

    la domanda è fondata, poiché per 40 anni, spesso, si è scelta la tipologia n. 1.

    Sapreste rispondermi?

  2. Dal ranking di scimago
    http://www.scimagoir.com/research.php?rankingtype=research&indicator=Excellence&sector=Higher%20educ.&country=&display=table&page=2&year=2014
    si scopre che la terza universita’ migliore e’ l’universita’ Antonio Narino in Colombia.
    Mentre la Purdue University (che e’ un’universita’ medio/buona, ma sicuramente non la migliore), che e’ la quarta al mondo era 733esima nel 2010.
    Da cui seri dubbi sulla sensatezza dietro i numeri riportati nell’articolo…

    Non si era contro i ranking fino a qualche tempo fa?

    • 1. Nel post non è contenuto nessun ranking. Ma l’autore prende uno degli indicatori di SJR (excellence rate) e ne analizza la distribuzione. Indicatore discutibile? Tutti gli indicatori sono discutibili, ma questo ha la caratteristica di essere basato sulle citazioni del singolo articolo; e il top10% è calcolato sui settori di ricerca scopus. A mio parere, rispetto ai mostri che si vedono in giro, niente male.
      2. Il ranking che lei cita può essere poco sensato non perché i dati sottostanti sono errati, ma perché è “strano” il criterio di aggregazione degli indicatori per costruire il ranking. L’excellence rate è uno della decina di indicatori usati in SJR http://www.scimagoir.com/methodology.php.

  3. A proposito della frase “dove vige una logica “di mercato”, che tende a concentrare i migliori ricercatori nelle università più prestigiose (e più ricche),…” bisogna tenere in mente un fattore importante. Se negli USA un’università è “ricca” perchè ha, diciamo, $100mln di fondi di ricerca, quei $100mln sono il risultato di, diciamo, 1000 contracts e grants di $100K l’uno, assegnati competitivamente sulla base di peer review, e tipicamente soggetti a valutazione dei risultati in itinere ed ex-post. Non c’è un ministero che li assegni in blocco a un ateneo. I fondi premiali nell’accezione italiana non esistono. Quella università da “ricca” può diventare “povera” molto rapidamente se tratta male i 1000 vincitori di quei contratti (altre università li accoglieranno a braccia aperte). Non è una certa università che è “ricca” e quindi appetibile. Sono i ricercatori che tutti insieme la rendono tale. È una cosa dal basso, non dall’alto.

    PS La Purdue University famosa è quella di West Lafayette. Calumet è un campus minore dei cinque del sistema. Strano che sia arrivata in quella classifica.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.