Milano über alles! Non solo l’Università Statale di Milano balza al primo posto delle università italiane, unica nell’Olimpo delle top 200 mondiali, ma ad aggiudicarsi la medaglia d’argento è il Politecnico di Milano. Il successo milanese è completato dal piazzamento nelle top 500 di Milano Bicocca e dell’Università del San Raffaele. La classifica ARWU, nota anche come classifica di Shanghai, è il primo in ordine di tempo ad impiegare un raffinato sistema di indicatori per individuare le università più eccellenti e ne registra di anno in anno i progressi o gli arretramenti. Purtroppo, anche quest’anno registra la mediocrità delle nostre istituzioni universitarie: se nel 2017 avevamo due atenei – Padova e Roma Sapienza – nella top 200, oggi ne abbiamo uno solo e il numero degli atenei italiani nella top 500 è sceso da 15 a 16. Se non vogliamo tenere il passo nella competizione internazionale, non ci resta che concentrare le risorse nelle migliori università, puntando in particolare sulla coppia milanese al vertice, non a caso protagoniste anche nel progetto Human Technopole“. Ecco, ciò che avete appena lettto è il cumulo di sciocchezze che correte il rischio di leggere quando, digeriti i banchetti ferragostani, i mezzi di informazione diffonderanno gli esiti dell’edizione 2018 della classifica ARWU. Dato che prevenire è meglio che curare, abbiamo pensato di scrivere una “guida per giornalisti grulli”: volete scrivere un articolo sul ranking ARWU? Leggetevi prima il nostro “ARWU for dummies” in cui oltre che mettervi in guardia da bufale e svarioni, vi spieghiamo le ragioni delle salite e discese degli atenei italiani. Se qualcuno pensa che siamo prevenuti nei confronti dei professionisti dell’informazione, gli consigliamo di leggere cosa hanno scritto negli ultimi anni (seppure con qualche eccezione positiva). Ma, soprattutto, cosa scriveranno a partire da oggi.

1. Prima bufala: la forte ascesa del Politecnico di Milano

Basta scorrere la classifica italiana sul sito ARWU per notare il secondo posto del Politecnico. Insomma, prosegue “la forte ascesa del Politecnico di Milano, solo settimo nel 2014, sesto nel 2015 e ora in terza posizione”, come scriveva Corrado Zunino su Repubblica lo scorso Agosto. Peccato che questa ascesa sia solo un’illusione ottica, ieri come oggi. Basta leggere la noticina in basso (che abbiamo cerchiato in rosso):

* Institutions within the same rank range are listed alphabetically.

Cosa è un “rank range”? ARWU assegna un punteggio agli atenei e pubblica l’elenco dei primi 500. Tuttavia, viene reso pubblico solo il punteggio dei primi 100, di cui è pertanto nota la precisa posizione in classifica. Dalla 101-ma posizione in poi, gli atenei sono raggruppati in gruppi di 50:

  • dal 101-mo a 150 -mo
  • dal 151-mo a 200-mo

e poi in altri due gruppi da 100:

  • dal 201-mo al 300-mo
  • dal 401-mo al 500-mo.

Gli atenei che appartengono allo stesso “rank range” vengono elencati in ordine alfabetico. Nel 2017, il primo ateneo italiano nell’elenco era Sapienza University, seguita da University of Padova e Politecnico di Milano. Per l’occasione, Corrado Zunino scrisse: “La Sapienza miglior ateneo italiano … secondo posto per Padova, terzo per il Politecnico di Milano“. In realtà non c’era ragione di vantare alcun primato romano visto che nell’alfabeto la “S” di Sapienza preceda la “U” di University. Anzi, era possibile stabilire che il primato spettava a Padova. Infatti, se è vero che ARWU non pubblica i punteggi degli atenei oltre la 100-ma posizione, è altrettanto vero che pubblica i punteggi dei sei indicatori (Alumni, Award, HiC, N&S, PUB, PCP) la cui somma pesata produce lo score finale:

  1. Alumni of an institution winning Nobel Prizes and Fields Medals (peso 0,1);
  2. Award: staff of an institution winning Nobel Prizes and Fields Medals (peso 0,2),
  3. HiC: the number of Highly Cited Researchers selected by Thomson Reuters (peso 0,2);
  4. N&S: the number of papers published in Nature and Science between 2013 and 2017. (peso 0,2);
  5. PUB: total number of papers indexed in Science Citation Index-Expanded and Social Science Citation Index in 2017 (peso 0,2);
  6. PCP: the weighted scores of the above five indicators divided by the number of full-time equivalent academic staff (peso 0,1).

Basta pertanto qualche facile somma e moltiplicazione per recuperare il punteggio di tutte e 500 le università in classifica (qui trovate la formula e i dati per gli atenei italiani dal 2014 al 2017). In particolare, ecco il risultato per le università italiane nel 2017 e 2018.

Come stavano le cose nel 2017? Il primo posto spettava a Padova, ma sulla stampa ad avere il sopravvento fu la “classifica alfabetica”: l’elenco degli organi di informazione che diffusero la “fake news” è abbastanza impressionante:

Anche la “forte ascesa” del Politecnico di Milano era un miraggio. Il Politecnico era ottavo nel 2014, settimo nel 2015, sesto nel 2016 e di nuovo settimo nel 2017. Quest’anno è addirittura secondo, ma solo per motivi alfabetici, mentre il suo punteggio è leggermente calato e ha mantenuto il settimo posto.

Quella della “classifica alfabetica” è una classica (e ricorrente) bufala agostana. Oltre che nel 2017, aveva impazzato anche nel 2014 quando ad occupare abusivamente il primo posto era stata la “University of Bologna” che aveva l’unico merito di precedere alfabeticamente la “University of Roma – la Sapienza”, che dovette emettere un comunicato stampa per rivendicare il primato che le era stato scippato. Non sappiamo se la denominazione “Sapienza University of Rome” sia stata adottata proprio per prevenire ulteriori “scippi alfabetici”, ma se la “S” viene prima della “U”, essa è comunque preceduta dalla “P” di Polytechnic Institute of Milan. Roma Sapienza sarà vittima di uno scippo alfabetico anche quest’anno? Magari corredato di pensose spiegazioni che giustificano l’ascesa dell’ateneo tecnico milanese come frutto delle lungimiranti scelte della sua governance? Beh, le scommesse sono aperte.

2. Seconda bufala: una classifica che misura e stimola il miglioramento

La forza delle classifiche è che anche chi capisce poco di numeri comprende cosa significa arrivare primo, secondo, terzo e così via in una gara. Il problema è che si pensa a una gara di corsa: tanti atleti ai blocchi di partenza, cento metri uguali per tutti e vinca il migliore. Sono pochi, persino tra gli universitari, quelli che sono consapevoli di quanto sia diversa la natura delle classifiche universitarie. Più simili ad una competizione automobilistica dove c’è chi gareggia al volante di una Lamborghini o di una Porsche mentre altri guidano delle Panda. Inoltre, per decidere chi vince si tiene conto di una quantità di indicatori: la velocità massima, quella media, il tempo di percorrenza e così via. Ciò di cui non si tiene mai conto sono il costo del veicolo e i consumi di benzina.

Non avendo la più pallida idea di come funzionano le classifiche, si guarda al risultato e si imbastiscono giustificazioni più o meno fantasiose delle ascese e delle discese degli atenei, spesso attingendo abbondantemente ai propri pregiudizi ideologici. Il più delle volte, dietro i cambiamenti della posizione in classifica ci sono ragioni poco o per nulla legate all’effettiva “qualità” (qualsiasi cosa possa voler dire) degli atenei, la quale – come ovvio – può variare in modo solo marginale da un anno all’altro.

Vuoi per inconsapevolezza vuoi per opportunismo, ci sono rettori che incensano il rigore di una classifica nell’anno in cui essa sancisce un risultato lusinghiero per il loro ateneo («il ranking QS, redatto da Quacquarelli Symonds, è tra i più autorevoli al mondo»). Ma che smarriscono la loro loquacità quando l’anno seguente il loro ateneo perde tutto ad un tratto la bellezza di 221 posizioni. Non perché l’ateneo sia peggiorato, ma perché i curatori del ranking “tra i più autorevoli al mondo” hanno arbitrariamente ribaltato le regole del gioco.

Anche le basi scientifiche della classifica ARWU sono alquanto precarie (Should you believe in the Shanghai ranking? è il titolo di un articolo scientifico che ne evidenzia le falle e i paradossi). Una sua caratteristica è quella di favorire gli atenei di grandi dimensioni perché, a parte l’indicatore PCP che è normalizzato per il numero di docenti a tempo pieno, gli altri indicatori crescono con le dimensioni dell’ateneo. Per scalare la classifica, nel 2017 avevamo scherzosamente proposto di fondere gli atenei milanesi per formare la BUM (Big University of Milan), ma c’è qualcuno, come i parigini con la Mega-Sorbonne, che lo sta facendo sul serio. Quanto seria sia una classifica che premia la grandezza in quanto tale è invece un’altra questione. Per chi fosse interessato, la European University Association pubblica persino una mappa interattiva delle fusioni in corso.

Uno dei pochi meriti della classifica ARWU è che fornisce risultati abbastanza stabili da un anno all’altro. Cerchiamo allora di spiegare i cambiamenti dal 2017 ale 2018 nella classifica ARWU delle università italiane. Per farlo, dobbiamo però smentire un’altra bufala.

3. Terza bufala: una classifica basata su una metodologia trasparente

In realtà, la metodologia non era così trasparente se ci è voluto un intero articolo scientifico (D. Docampo, Reproducibility of the Shanghai academic ranking of world universities results, Scientometrics 2013) per ricostruire le formule con cui vengono normalizzati i dati grezzi per ottenere i sei indicatori già citati (Alumni, Award, HiC, N&S, PUB, PCP).

Abbiamo usato le formule ricostruite da Docampo per capire cosa è successo all’Università di Padova e a quella di Pavia, che sono le uniche ad aver perso posizioni (vedi Tabella 1):

  • Padova scende dal primo al sesto posto
  • Pavia scende dall’ottavo al decimo posto

Poi ci sono anche Roma Tor Vergata e Trieste che addirittura scompaiono dalla top 500. Già dall’esame della Tabella 1, si vede che la discesa di Padova e Pavia è principalmente dovuta all’indicatore HiC, ovvero il numero di ricercatori Highly Cited selezionati da Clarivate. Come spiegato da Docampo, l’indicatore HiC non è proporzionale al numero di ricercatori Highly Cited ma alla loro radice quadrata. Grazie a questa informazione, possiamo ottenere i dati grezzi, ovvero il numero di HiCi nel 2017 e nel 2018

Si scopre che Padova perde ben cinque pozioni per “colpa” di un singolo ricercatore. I suoi ricercatori HiC, da 2 che erano nel 2017 sono calati a 1 e questo è bastato a determinare il crollo. Analogo il destino di Pavia che da 4 ricercatori HiC è calata a 3, con conseguente scivolamento di due posizioni verso il basso. Anche la fuoriuscita di Roma Tor Vergata e Trieste sembra in gran parte spiegata dalla perdita del loro unico ricercatore HiC. Il quale potrebbe essere uscito dalla lista degli highly cited oppure essere andato in pensione o essersi trasferito in un altro ateneo, oppure … (non vogliamo togliervi la sorpresa).

Dalla tabella, si può vedere che nel 2018 la “quotazione” degli HiC è la seguente (ricordiamo che l’indicatore HiC pesa 0,2 nella formula con cui si ottengono i “punti ARWU”):

  • 1 ricercatore HiC: 0,2 x 9,6 = 1,92 pti ARWU
  • 2 ricercatori HiC: 0,2 x 13,5 = 2,70 pti ARWU
  • 3 ricercatori HiC: 0,2 x 13,5 = 3,32 pti ARWU
  • 4 ricercatori HiC: 0,2 x 13,5 = 3,84 pti ARWU

Nel 2017, le quotazioni erano diverse perché l’indicatore è rapportato all’indicatore dell’ateneo a cui è affiliato il numero massimo di HiC (ovvero Harvard). Salta all’occhio come la perdita o il guadagno di un ricercatore HiC vale di più per chi sta vicino a zero: si veda il caso di Roma Tor Vergata e Trieste, retrocesse oltre il 500-mo posto, ma anche quello di Milano che con un singolo HiC in più, non solo balza dalla terza alla prima posizione, ma, unica delle italiane, si garantisce un posto nella top 200.

La metodologia con cui Clarivate individua i ricercatori HiC è abbastanza complessa. Tralasciando i dettagli tecnici, possiamo però affermare che il numero di citazioni che occorrono per entrare nell’Olimpo degli highly cited varia molto da categoria a categoria: per esempio, ad un matematico ne occorrono di meno di quante ne occorrano a uno studioso di Molecular Biology & Genetics. Di fatto, esistono una ventina di classifiche parallele, una per ciascuno dei cosiddetti ESI fields. Se la classifica fosse unica, i ricercatori HiC proverrebbero quasi esclusivamente dalle discipline dove è abituale ricevere migliaia di citazioni, come alcuni settori della fisica e delle scienze della vita. Ciò nonostante, gli ESI fields sono comunque troppo vasti e, per fare un esempio, all’interno della categoria Physics, il titolo HiC sarà appannaggio chi studia tematiche popolari dove fioccano le citazioni e assai difficilmente verrà attribuito a chi, altrettanto se non più bravo, lavora su temi meno popolari. Di conseguenza, la definizione degli ESI fields, che non ha nessuna particolare base scientifica, risulta decisiva. Se, per esempio, la categoria Clinical Medicine, Physics o quella Engineering fossero disaggregate in sottocategorie, la lista degli HiC subirebbe una profonda rivoluzione e con essa anche la classifica ARWU.

Inoltre, per quanto possa contare il prestigio e il valore scientifico un singolo studioso, è sorprendente scoprire che la qualità di un ateneo (e la sua posizione in classifica) possono cambiare, anche sensibilmente, a causa di un solo individuo. Che indicazioni può dare una classifica del genere ai governi degli atenei, ma anche all’opinione pubblica e alla politica? Senza la nostra analisi, le salite e le discese sarebbero state attribuite a chissà quali cause. In realtà, abbiamo visto che per salire o scendere basta guadagnare o perdere un singolo ricercatore HiC. A volte, non c’è bisogno nemmeno di perderlo, ma basta giocare sulle affiliazioni perché i suoi punti vengano travasati all’estero.

Quest’ultimo potrebbe essere il caso di Trieste. Infatti, controllando sul sito di Clarivate, si vede che uno dei docenti attualmente in servizio a Trieste è incluso nella lista degli Highly Cited.

Peccato che ARWU spieghi chiaramente che nel calcolo di HiC:

Only the primary affiliations of Highly Cited Researchers are considered.

Quindi, per Trieste l’indicatore HiC è pari a zero perché Maurizio Prato contribuisce solo a far salire il punteggio della King Saud University che, secondo Clarivate, risulterebbe essere la sua affiliazione primaria. Un’università quella saudita che è ben nota proprio per l’uso spregiudicato di affiliazioni fittizie, finalizzato alla scalata dei ranking:

King Saud University in Riyadh—has climbed several hundred places in international rankings in the past 4 years largely through initiatives specifically targeted toward attaching KSU’s name to research publications, regardless of whether the work involved any meaningful collaboration with KSU researchers.

Saudi Universities Offer Cash in Exchange for Academic Prestige

Science non era l’unica sede in cui si era discusso il trucco delle affiliazioni fittizie per scalare i ranking:

4. Quarta bufala: la classifica ARWU certifica l’inefficienza dell’università italiana

Le classifiche sono facili da comprendere, ma mascherano completamente i dati grezzi che poi sono quelli che potrebbero veramente servire a fare confronti e diagnosi. Se non comprendo perché salgo o scendo, è vano difendere le classifiche in nome dell’accountability e della competizione. Ma non va molto meglio quando qualcuno capisce che si può scalare la classifica con espedienti che non hanno nulla a che fare con la qualità reale. Un esempio ce l’hanno appena fornito le università Saudite che ricorrono ad affiliazioni fittizie di studiosi Highly Cited. Un’altra pratica, comune anche tra le università italiane, è il doping dei questionari reputazionali della classifica QS, attraverso la sollecitazione di giudizi favorevoli da parte di colleghi stranieri. Infine, abbiamo già citato il tentativo di scalata attraverso il ricorso a fusioni, anche a costo di formare mega-atenei.

Per tirare fuori qualcosa di utile dalle classifiche, bisogna fare lo sforzo di disaggregare gli indicatori per risalire al dato grezzo e poi analizzarlo, anche in relazione a dati esterni a quelli usati dalla classifica. Già in un paio di occasioni, abbiamo proposto degli “esercizi pedagogici”. Invece di rimanere ipnotizzati dalle posizioni in classifica, abbiamo provato a capire cosa dicono i numeri.

Una metafora facile da capire è vedere l’università come un veicolo che consuma benzina per camminare. I risultati scientifici sono i km percorsi mentre i soldi spesi sono i litri di benzina consumati. Quando si vuole confrontare l’efficienza di due veicoli ma anche di due università, la cosa più logica è calcolare i consumi: quanti litri per percorrere 100 km oppure quanti dollari per produrre un articolo scientifico. A sorpresa, avevamo scoperto che gli atenei italiani non temono confronti con gli atenei “top” e nemmeno con i “campioni nazionali”, ovvero i migliori atenei delle diverse nazioni:

Cerchiamo di usare i dati della classifica ARWU 2018 per capire meglio come i nostri atenei si rapportano a Harvard, l’ateneo che sta in testa alla classifica. Per farlo ci concentriamo sull’indicatore PUB:

Total number of papers indexed in Science Citation Index-Expanded and Social Science Citation Index in 2017. Only publications of ‘Article’ type is considered.

Di nuovo, seguiamo Docampo per ricavare il dato grezzo, ovvero la percentuale di articoli prodotti da ciascun ateneo, avendo come riferimento Harvard.

Nelle ultime due colonne abbiamo anche aggiunto il numero di studenti (fonti: anagrafe studenti, dottorandi esclusi, e sito web di Harvard, dottorandi inclusi) e le spese operative (fonti: i bilanci degli atenei, già usati qui). Ecco alcune osservazioni:

  • tranne Roma Sapienza, tutti gli atenei italiani aumentano la produzione scientifica più rapidamente di quanto faccia Harvard: la percentuale rapportata a Harvard nel 2018 cresce rispetto a quella del 2017;
  • se prendiamo i primi otto atenei italiani, le loro spese (4,8 MLN USD) sono poco superiori a quelle di Harvard (4,6 MLN USD);
  • i primi otto atenei italiani, messi assieme, producono 1,7 volte gli articoli prodotti da Harvard;
  • i primi otto atenei italiani, messi assieme, erogano didattica a più di mezzo milione di studenti contro i 22mila di Harvard.

Insomma, basta tener conto della didattica erogata e delle spese perché i dati raccontino una storia molto diversa. Le università italiane, singolarmente prese, costano molto meno della world class university che sta in cima alla classifica, ma a parità di spesa producono molto di più. Sono numeri semplici da capire che suggeriscono due considerazioni altrettanto semplici:

  • ha senso prendere come modello delle università che, per quanto eccellenti, spendono enormi quantità di denaro? Non si tratta forse di modelli economicamente insostenibili se l’obiettivo è quello di estendere l’accesso alla formazione terziaria e trasferire tecnologie e competenze su tutto il territorio?
  • non è che questi ranking, così rigorosamente alieni da ogni valutazione del rapporto costi-benefici, finiscono per occultare l’insostenibilità economica di questo modello e aiutano a promuovere concentrazioni di risorse che danneggiano la società nel suo complesso e aumentano le disuguaglianze?

 

Send to Kindle

17 Commenti

  1. Una curiosità: vedo che Roma, Pisa e PoliMi hanno un punteggio maggiore di zero per “Award: staff of an institution winning Nobel Prizes and Fields Medals (peso 0,2)” (staff, non alumni, quindi persone ancora in servizio). Chi sono le persone premiate in questione? Ho scorso un po’ di Wikipedia, ma non mi è chiarissimo.

    • No, non necessariamente persone in servizio. Ecco la definizione dell’indicatore riportata sul sito di ARWU:
      ______________________________
      The total number of the staff of an institution winning Nobel Prizes in Physics, Chemistry, Medicine and Economics and Fields Medal in Mathematics. Staff is defined as those who work at an institution at the time of winning the prize. Different weights are set according to the periods of winning the prizes. The weight is 100% for winners after 2011, 90% for winners in 2001-2010, 80% for winners in 1991-2000, 70% for winners in 1981-1990, and so on, and finally 10% for winners in 1921-1930. If a winner is affiliated with more than one institution, each institution is assigned the reciprocal of the number of institutions. For Nobel prizes, if a prize is shared by more than one person, weights are set for winners according to their proportion of the prize.
      http://www.shanghairanking.com/ARWU-Methodology-2018.html

  2. La classe politica attuale vuole proprio questo:
    1. non estendere l’accesso alla formazione terziaria ai giovani istupiditi da tecnologismi insulsi, da alternanze scandalose e da modelli culturali di sgomitamento e di ‘emergenza’ mediatica; si deve educare piuttosto e ossessivamente all’utilizzo della tintura per i capelli e dello shampoo;
    2. promuovere concentrazioni di risorse.
    La società nel suo complesso non interessa. Interessano i vertici di qualsiasi tipo. L’educazione di massa allo spirito critico e all’allargamento degli orizzonti culturali ancor meno, perché pericolosi.
    Non parliamo della comodità dei dati aggregati. La disaggregazione, come l’autopsia, rivela la verità.

  3. Mi chiedo perché nella classifica ARWU manca sistematicamente l’Università Roma Tre. Eppure c’è l’Università di Roma Tor Vergata, che è di dimensioni comparabili. Forse perché Roma Tre ha dato la laurea Honoris Causa al Dalai Lama nel 2006 e paga ancora pegno? Qualcuno sa qualcosa in proposito?

    • No, non è colpa del Dalai Lama. Tor Vergata entrava nella top 500 per il rotto della cuffia. Le è bastato perdere un ricercatore Highly Cited per uscire dalla classifica. Roma Tre non ha ricercatori Highly Cited ed è del tutto plausibile che sia fuori (sempre secondo i criteri ARWU).

  4. Quello che l’articolo dimentica di spiegare, è che la distribuzione dei valori ha una forte tendenza centrale—se una università è vicina alla mediana, allora una piccola perturbazione può portare a un grande guadagno o perdita in termini di ranking.

    Prendiamo la maratona di Boston del 2017: il primo classificato ha corso in 2 ore e 9 minuti. Se avesse perso due minuti a sistemarsi le scarpe, sarebbe arrivato terzo. Un corridore medio che fa un tempo di 3 ore e 40 minuti sarebbe arrivato in 9759mo; se lo stesso avesse perso due minuti sarebbe sceso di ben 533 posizioni.

    Quello che queste classifiche certificano, è che le università italiane sono nel “bulk” della distribuzione, e che quindi avranno oscillazioni più grandi in termini di ranking. Se fossero istituzioni di punta, allora vedrebbero le fluttuazioni diminuire (per es., Harvard è prima o seconda in tutti i rankings nazionali, e tra prima e sesta in quelli mondiali; si è posizionata in maniera simile per tutti gli anni considerati). Per questo motivo le istituzioni non di punta sono raggruppate in blocchi da 50 o 100. Parlare di differenze tra queste istituzioni non ha molto senso.

    L’idea che la classifica sia dovuta solo alla dimensione dell’università è profondamente sbagliata. Per esempio, CalTech ha 300 professori, MIT 1000, Stanford poco più di 2000. Eppure dominano le classifiche. La Sapienza di professori ne ha 4000…

    Rispetto ai HiC: invece di mettere la testa sotto la sabbia, sarebbe bene chiedersi perché dei 3538 ricercatori listati, solo 51 hanno una affiliazione italiana. In italia ci sono circa 45 mila professori. Stanford ha 70 HiC, nonostante abbia solo 2219 professori. Harvard (4671 professori) ha più del doppio degli HiC (139) che si trovano in tutta Italia. Su ROARS si dirà che questo è dovuto al critico sottofinanziamento, ma a me questi numeri fanno impressione. Neanche nelle discipline dove le risorse contano meno (es. matematica) si fa molto meglio: 5 HiC in Italia contro 4 di Stanford.

    • “L’idea che la classifica sia dovuta solo alla dimensione dell’università è profondamente sbagliata. ”
      __________
      Nell’articolo non c’è scritto che la classifica è “dovuta solo alla dimensione dell’università”, ma che “Una sua caratteristica è quella di favorire gli atenei di grandi dimensioni”. Per capirlo, non c’è nemmeno da essere particolarmente esperti di ranking, ma basta leggere Wikipedia:
      __________
      “ARWU […] draws some criticism for heavily focusing on scientific research and downplaying the quality of instruction; it also does not adequately adjust for the size of the institution, so that larger institutions would tend to rank above smaller ones. .[9][13][14]
      https://en.wikipedia.org/wiki/Academic_Ranking_of_World_Universities
      __________
      Se poi si vanno a vedere le formule si scopre che, tranne l’indicatore PCP che però pesa solo per il 10%, gli altri indicatori non hanno nessuna normalizzazione per la dimensioni dell’ateneo. Non per niente, basta fondere due atenei per salire nel ranking, come stanno facendo i parigini con la Mega-Sorbonne. Infatti, quando fondo gli atenei si sommano premi Nobel, ricercatori HiC, articoli su Science e Nature, numero di pubblicazioni e, di conseguenza, l’ateneo ottenuto dalla fusione avrà un punteggio maggiore di ciascuno dei due atenei di partenza. È una semplice questione di aritmetica. Ha senso una classifica che può essere scalata attraverso semplici fusioni? L’anno scorso abbiamo mostrato che la BUM (Big University of Milan). la BUM sarebbe nella 60-esima posizione mondiale, davanti a:

      University of California, Irvine,
      McGill University,
      Ecole Normale Superieure – Paris,
      Rice University,
      Swiss Federal Institute of Technology Lausanne,
      Purdue University – West Lafayette,
      Georgia Institute of Technology,
      Leiden University,
      Technion-Israel Institute of Technology.
      https://www.roars.it/online/classifica-arwu-ununiversita-italiana-nella-top-100-subito-e-a-costo-zero/

    • ” invece di mettere la testa sotto la sabbia, sarebbe bene chiedersi perché dei 3538 ricercatori listati, solo 51 hanno una affiliazione italiana.”
      ________________
      Già, chissà perché …







  5. L’ideologia megalomanica paga sempre, soprattutto perché legata a megasoldi, a megapotere, da cui marxianamente deriva. Dalle piramidi in poi, che emotivamente non ci interessano, fino al Palazzo del popolo di Ceaus,escu, che emotivamente interessa ancora, alle grandi strutture … I grandi calcoli classificatori sono della stessa razza. Gratta gratta, si sbriciolano … E a cosa si appoggiano? Alla povera casa che non c’entra nulla (spero si capisco di cosa parlo).

  6. […] Secondo paradosso: per la classifica di Shanghai ARWU 2018, la somma delle spese operative delle prime otto università italiane equivale circa a quelle della sola Harvard. Peraltro, nel caso delle italiane riguarda circa 537.000 studenti, mentre sono solo 22.000 quelli di Harvard. E con una produzione scientifica complessiva (in termini meramente numerici) superiore a quella di Harvard del 70%. […]

  7. Sole 24 Ore: “STATALE DI MILANO PRIMA ITALIANA NELLA CLASSIFICA DI SHANGHAI”
    https://www.cnr.it/rassegnastampa/18-08/180817/8FT9I9.tif
    _______________
    Non sappiamo se ci hanno copiato ma l’impostazione dell’articolo del Sole assomiglia parecchio alla nostra parodia. Nessun accenno ai limiti delle classifiche, lamentazione sulle italiane lontane dalla vetta e collegamento (tirato con i capelli) con il progetto Human Technopole. Avevamo messo in guardia, ma è servito a poco.

  8. “L’idea che la classifica sia dovuta solo alla dimensione dell’università è profondamente sbagliata. Per esempio, CalTech ha 300 professori, MIT 1000, Stanford poco più di 2000. Eppure dominano le classifiche. La Sapienza di professori ne ha 4000…” (Lo Surdo)
    Ma la dimensione di una università si calcola solo sul numero dei docenti? A me sembra proprio di no. E mi sembra anche che l’enfasi sui docenti voglia distorcere il ragionamento.

  9. Ho come l’impressione che dietro queste classifiche girino cifre esorbitanti, tali da giustificare ogni ricorso a metodi arbitrari pur di far emergere i propri “raccomandati” dal portafoglio generoso. Mi permetto di parlare solo dell’ambito accademico nel campo dell’economia, di cui ho maggior esperienza. Mi farebbe piacere sapere come stanno messi gli altri campi anche non bibliometrici, e gradisco ancor di più pareri vostri in merito. Grazie.

    Personalmente preferisco un sistema che dia a tutti la possibilità e la libertà di far emergere i propri talenti, quelli veri e non “self-claimed” e che non metta “etichette fascistoidi” arbitrarie. Anche perchè vorrei si scindessero persone ed atenei che li ospitano. C’è un’ampia letteratura al riguardo della teoria della segnalazione, quella che ha sviluppato il business delle certificazioni in pratica a fini di aumentare il numero di rette vendute e convegni organizzati (con ticket di presenza e sponsor locali da finanziare)… Fa tanto scienze del turismo culturale!
    Dicevo, sul campo economico sono cresciuto con l’idea che un’università debba sfornare o professionisti o accademici realmente competenti, per cui l’idea di orientare la scelta di un ateneo per un giovane sulla base di una classifica mi disturba parecchio.
    Solo in un secondo momento ho scoperto dell’esistenza di tali classifiche e sono rimasto parecchio basito!

    Ad essere onesto, vorrei lasciarvi per riflettere non pareri od emozioni mie, ma dati:
    1) una minoranza stretta degli studenti legge le classifiche, in primis in Italia, dove quasi mai ho incontrato studenti a conoscenza delle loro versioni aggiornate;
    2) di quei pochissimi che conoscono le classifiche, la stragrande maggioranza googla “classifica università” e si ferma alla prima pagina, soffermandosi su classifiche tipo Sole24Ore o simili;
    3) la stragrande maggioranza degli studenti sceglie le università per abitudine, su consiglio di amici e parenti, fidandosi ciecamente delle loro opinioni, oltre che per risparmiare su alcuni costi “materiali ed esperienziali”;
    4) quanto alle varie società “ufficiali” avrei da evidenziare: QS è una società a responsabilità limitata (non una SpA o simili britanniche) quindi il suo management è strettamente chiuso al parere esterno per evitare “contaminazioni ideologiche ed informative”, ARWU premia troppo chi fa collaborazioni con l’estero indipendentemente dall’effettiva produttività marginale, THE sembra troppo filo-British che taglia fuori gli americani e favorisce le università proprie in UK (in compenso taglia fuori gli atenei italiani che puntano gran parte su titoli intermedi come masters ed MBA);
    5) all’estero danno troppa importanza all’Impact Factor, che da noi viene preso in considerazione più in Medicina ed Odontoiatria, mentre mi risulta che ai fini accademici contino le pubblicazioni in fascia A secondo ANVUR (che ha buttato giù dalla torre persino il giornale dell’MIT Sloan di Boston, per esempio); molte delle riviste in fascia A hanno IF inferiori a molti Working Papers, ma ciononostante si diventa professori solo se si scrive in fascia A un tot numero di articoli;
    6) quanto a QS, so che organizza convegni in giro per il mondo promuovendo – in maniera arbitraria ed avulsa dalle classifiche online – gli atenei locali alla struttura ospitante;
    7) le classifiche QS, ARWU e THE descrivono realtà completamente diverse da quelle di Ideas/RePEc;
    8) a braccio, dalle mie conoscenze personali vedo un trade-off fra docenti e studenti (l’uno eccelle a detrimento dell’altro);
    9) stando ad ARWU e QS, un ateneo come la Bocconi sarebbe il primo in Italia per economia, come a dire che chi esce da lì sarebbe più preparato ed avrebbe più opportunità di tutti gli altri; secondo THE e RePEc sarebbe un ateneo come tanti altri (se non addirittura irrilevante);
    10) quanto al punto 9, sinceramente non riesco proprio a capire in cosa eccelli a parte il CV di alcuni loro docenti e l’endowment dei master di II livello (tra l’altro variegati e francamente rimpiazzabili con “scuole aziendali presso le BIG4”): i loro corsi di laurea sono stati abbondantemente imitati e migliorati dalla concorrenza (tanto per dirne una, financial risk management è fatta benissimo in molte università italiane da validissimi docenti, oserei dire anche meglio), i loro studenti hanno job placement identici a migliaia di studenti di altri atenei (pubblici, alcune private piccole sarebbero risultate migliori negli ultimi 3 anni, relata refero) ed ultimamente ne stanno piazzando troppi in università al post-laurea rispetto al passato, i loro aspiranti dottorandi sono spesso risucchiati in una spirale di “pre-dottorato” come neanche al peggiore degli studenti da “formare a forza” (quando altri entrano a pochi mesi dalla laurea), i loro dottori di ricerca in genere escono con meno pubblicazioni dei concorrenti di altri atenei/PhD Schools e tra l’altro troppo pochi escono che possono conseguire l’ASN subito dopo il dottorato, vi sono parecchie realtà italiane spesso dimenticate che sfornano eccellenti ricerche apprezzatissime da multinazionali e riviste (direi la maggioranza rispetto a loro, con produttività marginali maggiori: non sprecano soldi in convegni/giri turistici e pubblicano con meno desk rejections).

    Se qualcuno ritiene di essere in disaccordo, lo può sempre dire (non mangio nessuno), potrei persino cambiare idea purché si argomenti ovviamente.

    • Difficile che qualcuno discuta con un anonimo. Libero di restare tale. Non si aspetti contributi dai lettori di roars, che nella grande maggioranza firmano le loro opinioni.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.