Il 20 luglio scorso, il Sole 24 Ore (il quotidiano di Confindustria) ha pubblicato la sua Classifica 2015 delle Università italiane. Rispetto al 2014, nella categoria “non statali” si nota il sorpasso del San Raffaele da parte della LUISS, che rimonta ben 6 punti e ottiene l’argento, Ciò anche grazie al crollo del San Raffaele dal secondo al settimo posto nella sottoclassifica “Occupazione”. Uno scivolone che però non riguarda l’indicatore usato nel 2014 (rispetto al quale il San Raffale rimane secondo), ma un nuovo indicatore introdotto in sua sostituzione senza informare i lettori. Senza questa modifica – l’unica su 12 indicatori – la LUISS (l’Università di Confindustria) sarebbe rimasta terza.


Classifiche_Sole24Ore_2015


1. Il Sole 24 Ore ci riprova

Come i lettori di Roars ben sanno, le classifiche – nazionali e internazionali – degli atenei non hanno basi scientifiche e, proprio per questo, i risultati sono fortemente dipendenti dalle scelte, in larga misura arbitrarie di chi le confeziona. Si può però far ancora peggio, ovvero aggiustare di anno in anno i criteri senza spiegare ai lettori che le ascese e le discese in classifica, più che riflettere “vizi” e “virtù”, sono frutto di metri che si allungano e si accorciano. Si tratta di condotte disinvolte, imputabili anche ad alcune celebri classifiche internazionali, come per esempio i World University Rankings di Times Higher Education, le cui classifiche citazionali usano metriche tutt’altro che stabili nel tempo.

a_cura_di_Gianni_TrovatiIl 20 luglio scorso, il Sole 24 Ore ha pubblicato la sua Classifica 2015 delle Università italiane. Come si legge a destra in basso nel banner, la classifica è “a cura di Gianni Trovati”, un giornalista già noto ai lettori di Roars per un articolo intitolato “Pubblicazioni «insufficienti» per un professore ogni due” in cui dava la notizia che un professore su due non superava le mediane ANVUR (un po’ come dire che il Maresciallo de La Palice, “se non fosse morto, sarebbe ancora in vita”).

Sole24MedianeUnoSuDueNonSupera

A quanto pare, il rituale estivo del lancio delle classifiche del Sole prevede anche la pubblicazione di un articolo dal titolo “einaudiano”: “Misurare per poter migliorare” era il titolo nel 2014 e “Misurare per decidere” nel 2015. La fantasia nella scelta dei titoli non sembra essere un punto di forza dell’autore, Daniele Checchi, uno dei 15 selezionati come potenziali futuri membri dell’ANVUR, l’Agenzia di Valutazione del Sistema Universitario e della Ricerca.

L’anno scorso la pubblicazione della Classsifica del Sole 24 Ore si era rivelata una vera e propria débâcle:

  • Macerata era finita in testa nella classifica della qualità della ricerca a causa di uno scambio di colonne;
  • la nota tecnica era incomprensibile e sgrammaticata;
  • la Qualità dei Dottorati ovvero i “i giudizi ottenuti dall’alta formazione nella valutazione ANVUR”, non erano in nessun modo dei giudizi, ma un semplice conteggio del numero di ricercatori in formazione (studenti di dottorato, assegnisti di ricerca, borsisti post-doc);
  • la classifica era costruita aggregando gli indicatori mediante una metodologia errata.

Lo specialista di valutazione Daniele Checchi non si era accorto di nulla e, anzi, si era speso in una difesa preventiva, molto generosa, ma, col senno di poi, altrettanto incauta:

I dati di queste pagine sono un buon esempio di come si possano fornire informazioni in un formato utilizzabile. Ma già immagino i detrattori che cominceranno a obiettare sull’affidabilità di questo o quel dato, o sulla loro ponderazione.

2. Cosa cambia nelle regole dal 2014 al 2015?

Lasciamo per un attimo da parte la questione della metodologia utilizzata (la cui erroneità è nota da più di venti anni, anche se Checchi non se ne avvede) e della scelta degli indicatori (decisamente discutibili), e limitiamoci a confrontare le classifiche 2014 e 2015, per capire se i trionfi e le sconfitte siano dovuti a variazioni della prestazioni o piuttosto a variazioni del metro usato per giudicarle.

In particolare, siamo rimasti colpiti dal crollo del San Raffaele, che nella categoria “non statali” passa dal primo posto del 2014 al terzo del 2015, superato non solo dalla Bocconi, ma anche dalla LUISS.

Per vederci più chiaro abbiamo quindi esaminato i 12 indicatori, 9 per la “didattica” e 3 per la “ricerca” (usiamo le virgolette perché diversi di essi sono poco o nulla riconducibili a misure pertinenti alle attività di didattica e ricerca). Abbiamo visto che solo uno è stato modificato, quello che dovrebbe misurare l’Occupazione dei laureati.

Nel 2014 l’indicatore utilizzato per stilare la classifica “Occupazione” era il

  • Tasso di studenti in cerca di lavoro a un anno dal titolo

che dava luogo alla seguente classifica.

Occupazione_2014Fonte : AlmaLaurea (indagine 2014 sui laureati 2012) tranne: (*) Consorzio Stella (indagine sui laureati 2012) e (**) Dati forniti dai singoli atenei (solo su laureati magistrali e/o a ciclo unico – Valori non considerati nel ranking)


Un veloce confronto con l’Indagine Almalaurea 2014 sulla Condizione Occupazionale dei Laureati  consente di verificare che tale tasso altro non è che la percentuale di laureati che, a un anno dalla laurea,

  • Non lavora ma cerca

Sia detto per inciso, che la scelta di questo indicatore non è esente da critiche:

  • un solo anno di distanza dalla laurea è un periodo troppo breve per valutare gli esiti occupazionali, soprattutto in un mercato del lavoro problematico come quello italiano;
  • tali esiti rispecchiano in modo parziale la qualità della didattica, essendo piuttosto fortemente influenzati dalla situazione economico-produttiva del territorio ed anche dal tipo di laurea (per esempio, non sono confrontabili gli esiti di un politecnico con quelli di un ateneo generalista).

Ferme restando queste riserve, l’indicatore, ha quanto meno il pregio di essere meno soggetto di altri a distorsioni legate alla quota di studenti che proseguono gli studi. In altre parole, considerare questo indicatore aiuta a non replicare lo strafalcione di Roger Abravanel e Luca D’Agnese, che nel loro ultimo libro hanno bollato i laureati di fisica di Padova come «nerd con la testa tra le nuvole», non rendendosi conto che una  percentuale significativa non lavora perché è impegnata nella prosecuzione degli studi (dottorato, master, etc) mentre solo il 3,9% dei laureati in fisica padovani non lavora, pur cercando un lavoro.

Se si adotta questo indicatore, è ragionevole che la relativa classifica non subisca radicali sconvolgimenti da un anno all’altro, a meno di un’improvvisa crisi occupazionale che colpisca solo le regioni di alcuni atenei e non altre.

Eppure, nel 2015 il San Raffaele precipita dal secondo al settimo posto nella classifica “Occupazione”, come mostrato di seguito.

Occupazione_2015Superato il primo momento di sorpresa, si nota subito che c’è stato un cambio di indicatore. La “percentuale che non lavora ma cerca” è stata rimpiazzata dalla

  • percentuale di studenti occupati (definizione istat) a un anno dal titolo

Almalaurea spiega la “definizione istat” nel seguente modo:

  • Tasso di occupazione: rapporto tra occupati e intervistati. Si considerano occupati tutti coloro che dichiarano di svolgere un’attività, anche di formazione, purché retribuita.

È opportuno notare che, in presenza di un’elevata percentuale di laureati che proseguono l’attività di formazione senza essere retribuiti, il tasso di occupazione potrebbe essere tutt’altro che elevato anche quando la percentuale di intervistati che “non lavorano ma cercano” risulta ridotta. Questo sembra proprio essere il caso del San Raffaele.

Occupazione

Per il San Raffaele, la percentuale di intervistati che, a un anno dalla laurea, non lavorano ma cercano è salita, ma non di molto

  • 13,2% nel 2014
  • 14,8% nel 2015

La tabella mostra anche che, relativamente a questo indicatore, il San Raffaele avrebbe mantenuto la seconda posizione dietro a Bolzano.

Viceversa, la parte della tabella collocata sotto il titolo “NUOVO INDICATORE” mostra che, se consideriamo come indicatore il tasso di occupazione, il San Raffaele precipita in settima posizione, verosimilmente a causa di frazione comparativamente elevata di laureati che proseguono gli studi senza essere retribuiti.

3. La “stangata” a danno del San Raffaele

Ma quali sono le conseguenze di questo scivolone sulla classifica generale?

Il meccanismo di normalizzazione adottato dal Sole 24 Ore assegna ad ogni ateneo un punteggio tra 0 e 100, proporzionale alla sua posizione in classifica. Se, come nel nostro caso, i concorrenti sono 10, avremo:

  • 1° ateneo: 100 punti
  • 2° ateneo: 89 punti
  • 3° ateneo: 78 punti
  • 4° ateneo: 67 punti
  • 5° ateneo: 56 punti
  • 6° ateneo: 44 punti
  • 7° ateneo: 33 punti
  • 8° ateneo: 22 punti
  • 9° ateneo: 11 punti
  • 10° ateneo: 0 punti

Se il Sole 24 Ore non avesse cambiato l’indicatore, al San Raffaele sarebbero spettati 89 punti. Invece, spostando la competizione sul tasso di occupazione, ottiene solo 33 punti. In realtà, ne riceve solo 30, visto che, per questo indicatore, il Sole 24 Ore non assegna i punteggi in modo rigorosamente proporzionale alla posizione in classifica (una svista?).

In conclusione, per il San Raffaele il cambio di indicatore comporta una perdita secca di

89 – 30  = 59 punti

Per valutare l’effetto di questo salasso sulla classifica generale, ricordiamo che il punteggio della didattica è ottenuto tramite la media di 9 indicatori, incluso quello dell’Occupazione(1)(2). Pertanto, il cambio di indicatore comporta un calo del punteggio della Didattica pari a

59/9 = 6,56 punti

Dato che il punteggio della classifica generale è la media di quello della Didattica e di quello della Ricerca, l’effetto sulla Classifica Generale ammonta a

6,56/2 = 3,28 punti

In assenza di modifiche dell’indicatore della classifica Occupazione, il San Raffaele avrebbe totalizzato 81 punti, classificandosi secondo davanti alla LUISS, che ne ha ottenuti 79 (e che non risente del cambio di indicatore perché, non aderendo ad Almalaurea, è stata espunta dalla sottoclassifica Occupazione sia nel 2014 che nel 2015).

Prima_e_dopo_la_cura

Invece, grazie al cambio di indicatore, il San Raffaele è sceso a 78 punti, cedendo la medaglia d’argento alla LUISS, ai cui punti di forza Gianni Trovati dedica un paragrafo nel suo articolo, mentre glissa sulle ragioni dell’arretramento del San Raffaele.

4. Coincidenze

Per concludere, riportiamo quanto scrive Wikipedia nelle voci dedicate al Sole 24 Ore e alla LUISS:

La testata è edita dal Gruppo 24 ORE […] Confindustria è proprietaria del Gruppo.
https://it.wikipedia.org/wiki/Il_Sole_24_ORE

La Libera Università Internazionale degli Studi Sociali Guido Carli, nota con l’acronimo LUISS, è un ateneo universitario privato di Roma, nato nel 1974 […] L’Università, promossa da Confindustria, è specializzata nell’insegnamento delle scienze economiche e sociali, giuridiche e manageriali.
https://it.wikipedia.org/wiki/Libera_Universit%C3%A0_Internazionale_degli_Studi_Sociali_%22Guido_Carli%22


(1) Quando alcuni indicatori mancano, come nel caso di Bocconi e LUISS per le quali non sono disponibili rilevazioni Almalaurea, la media viene effettuata solo sugli altri indicatori disponibili.

(2) Aggregare indicatori proporzionali alla posizione in classifica calcolandone la media è una procedura notoriamente errata, il cui uso negli high-stakes tests statunitensi è stato sradicato fin dagli anni ’90, senza però che ne sia giunta notizia ai presunti esperti di valutazione italiani. Solo un tempestivo articolo di Roars aveva distolto Sergio Benedetto dall’usare proprio questa procedura per costruire classifiche di riviste nella VQR 2004-2010. Il candidato al direttivo ANVUR Daniele Checchi non è da meno e dà il suo endorsement alle classifiche del Sole 24 Ore, che si basano su una metodologia la cui erroneità è ampiamente nota agli esperti, non da ieri, ma da più di due decenni.

 

Send to Kindle

17 Commenti

  1. Sono storie italiote in salsa trendy-valutativa. Si fanno molta pubblicità grazie ad agganci in altissimo loco. Ricordo due memorabili servizi al TG1 su quanto è bella la LUISS di Roma: i futuri manager non solo studiano in inglese con gli immancabili attrezzi tecnologici, ma coltivano un orto nel quale imparano i segreti di cavoli e pomodori.
    Ci vorrebbe Sant’Antonio De Curtis a commentare.

  2. Nonostante questa classifica non valga un fico secco nei corridoi dei dipartimenti i commenti non si sprecano su chi sale e su chi scende o su quanto siamo forti e belli. Alla fine siamo i primi che gli diamo importanza.

    • Nel mio ateneo erano soddisfatti per il buon risultato nella valutazione dell’alta formazione. Ho dovuto spiegare che non era stato valutato proprio nulla ma che era solo una conta delle teste normalizzata per area.

  3. In realtà il discorso dell’articolo mi sembra voglia spingersi troppo in avanti… le classifiche di università sono pseudoscienza e basta, e a discuterne troppo nei dettagli si rischia di dargli credito. Un po’ come è successo recentemente ad Auditore, paesino delle Marche, ove una statua della Madonna si è messa a piangere sangue, che le analisi hanno determinato essere di capriolo (povera bestiola). Dal momento che le statue della Madonna NON piangono sangue, anche fosse stato sangue umano cosa cambiava?
    Come non ci sono le statue piangenti della Madonna vere o quelle false, non ci sono le classifiche attendibili o quelle farlocche. Uno dei tanti problemi risiede nei pesi (arbitrari) che si danno ai vari parametri. Variandoli si può ottenere la classifica che piace di più. Ecco quella in cui la mia università è la NUMERO UNO e la bistrattata Messina seconda!


    • Cambia, dato che l’assioma

      “le statue della Madonna non piangono sangue”

      NON e’ incluso nella Logica Cattolica del I tipo.

      E’ difficile dialogare se gli assiomi di partenza sono diversi e immutabili.

      Devo ricordare che l’approccio scientifico galileiano (quello dei fisici) è basato sulle evidenze empiriche (esperimenti) che servono proprio a cambiare o modificare gli assiomi (teoria)?

    • Ringrazio Marco Bella per il commento che – giustamente – ricollega le classifiche al tema della “pseudoscienza”. Aggiungo solo qualche considerazione.
      _______________________
      1. Che le classifiche siano pseudoscienza risulta chiaro anche nell’articolo, che però si dedica intenzionalmente ad un altro aspetto: “Lasciamo per un attimo da parte la questione della metodologia utilizzata (la cui erroneità è nota da più di venti anni, anche se Checchi non se ne avvede) e della scelta degli indicatori (decisamente discutibili), e limitiamoci a confrontare le classifiche 2014 e 2015, per capire se i trionfi e le sconfitte siano dovuti a variazioni della prestazioni o piuttosto a variazioni del metro usato per giudicarle.”
      _______________________
      2. La pseudoscienza è spesso frequentata da chi approfitta della credulità altrui per trarre dei vantaggi.
      _______________________
      3. “Smontare gli ingranaggi” della pseudoscienza (o della superstizione religiosa) è per un certo verso un’attività superflua. Chi ha superato la fase del pensiero magico non ha bisogno di sapere che le statue piangono sangue di capriolo per farsi un’opinione.
      _______________________
      4. Il numero dei “boccaloni” è sempre maggiore di quanto si possa sospettare. Se l’analisi del sangue della statua (o degli ingredienti della classifica) li aiuta a nutrire qualche sospetto, potrebbe pur essere un primo passo per aiutarli a mettere la testa fuori dal mondo magico in cui vivono.
      _______________________
      5 L’analisi aiuta a capire chi muove i fili e a favore di chi. Houdini sfruttò la sua abilità nelle arti della prestidigitazione per smascherare medium e occultisti. Io non credo che i tavolini dei medium si muovano da soli, ma individuare i fili e chi li sta tirando serve a mettere in luce le responsabilità.

    • Concordo con il punto 2, ma mi domando chi e’ che ha l’autorevolezza per stabilire cosa sia “Scienza” e cosa “Pseudoscienza”.

      Da un punto di vista storico-sociologico noto che,
      mentre la parola “nucleare” è quasi scomparsa, la parola “scienza” gode invece di grande considerazione e viene inserita in ogni dove
      (scienze giuridiche, scienze filosofiche, scienza del vino, scientometria, ecc).

    • In alcuni casi è facile, per esempio in presenza di errori materiali. Andrea Bonaccorsi aveva elaborato per la Commissione Europea delle classifiche i cui conti, sottoposti a verifica, non tornavano. Durante la discussione seguita ad una sua “distinguished lecture” a Padova è emerso che aveva usato una definizione sbagliata di percentile (https://www.roars.it/online/andrea-bonaccorsi-e-le-classifiche-degli-atenei-voodoo-rankings/). In particolare se i punteggi sono tra 0 e 100 aveva considerato nel “decile top” gli atenei con punteggio superiore a 90, il che – naturalmente – non ha nulla a che fare con la nozione di percentile e invalida tutta la classifica (https://www.roars.it/online/andrea-bonaccorsi-e-le-classifiche-degli-atenei-voodoo-rankings/comment-page-1/#comment-13507). La mediana è niente altro che il 50-esimo percentile e in un famoso documento il direttivo ANVUR aveva manifestato i suoi dubbi sulla sua definizione che “pur univoca, lascia però un importante punto di ambiguità” (https://www.roars.it/online/anvur-non-potuto-fare-altro/)
      Evidentemente, la nozione di percentile pone particolari problemi ai membri del direttivo che, nonostante nel bilancio abbiano 1,5 milioni di Euro per esperti di elevata professionalità (https://www.roars.it/online/lo-start-up-di-anvur-e-costato-come-balotelli-lui-100-000-euro-a-passaggio-loro-100-000-a-delibera/) non sembra ne avessero trovato uno capace di illuminarli sull’argomento (o forse hanno stanziato tale cifra proprio per tappare questa e altre falle).
      In altri casi, dare la patente di “pseudoscienza” a certe pratiche può richiedere una discussione più lunga entro la comunità scientifica. Mi sembra che sia il caso delle classifiche basate sulla media di percentili, una pratica su cui B. Thompson ha messo la pietra tombale nel lontano 1993 con un “position paper” che include una doviziosa bibliografia di supporto:
      http://www.eric.ed.gov/ERICWebPortal/detail?accno=ED363637

    • Traducendo in italiano:

      “In certi casi non c’e’ bisogno di un esperto autorevole per definire una disciplina come pseudoscientifica. In questi casi la pseudoscienza risulta tale in quanto analizzando la sua struttura si colgono notevoli contraddizioni interne”.

      Mah. Forse

      Pero’ allora anche la Fisica e’ messa male, perche’ di contraddizioni interne ce ne sono diverse. Ma nonostante questo la Fisica di contributi utili ne ha dati moltissimi.

    • I casi che ho citato non riguardano una disciplina, ma le diffusione di classifiche derivate con calcoli errati oppure mediante metodi che sono stati dimostrati errati. Per fare un esempio, nel XVII secolo il Cavalier de Méré, un nobiluomo dell’epoca, sosteneva di aver dimostrato che i seguenti eventi A e B avessero la stessa probabilità:
      A: lanciando un dado 4 volte esce “1” almeno una volta;
      B: lanciando una coppia di dadi 24 volte esce una coppia di “1” almeno una volta.
      Infatti, risulta 4 × 1/6 = 24 × 1/36 = 2/3.
      Ecco, una qualsiasi analisi che faccia uso del “teorema” del Cavalier de Méré è un esempio di “pseudoscienza”, non molto diversamente da una classifica costruita con la media dei percentili.

  4. Chiariamo subito una cosa: le statue della Madonna che piangono non hanno nulla a che vedere con la fede e analogamente le classifiche di università non hanno nulla a che vedere con la valutazione…

    Detto questo, ringrazio Giuseppe De Nicolao per i commenti sempre interessanti. Penso che ben pochi qui non siano convinti dell’equazione classifiche di università=pseudoscienza, per cui la discussione è di utilità limitata. Piuttosto, come giustamente osservato, quello che non è ovvio è il modo efficace di combattere la pseudoscienza (per una discussione interessante vedi la pagina di wikipedia, che è davvero ben fatta: https://it.wikipedia.org/wiki/Pseudoscienza).
    La mia esperienza personale è che i “trucchi” della pseudoscienza sono tutto sommato semplici. E i problemi che si rilevano nelle classifiche di università vistosi: due colonne scambiate tra loro, i giornalisti (e aspiranti rettori) i quali non afferrano che oltre una certa posizione c’è l’ordine alfabetico reclamando primati inesistenti e così via. Per modificare la graduatoria in modo sostanziale basta cambiare un po’ a piacere i pesi dati a ciascun indicatori, come ho fatto io per gioco, non andrei oltre questo. La spiegazioni troppo complesse rischiano di ottenere l’effetto opposto, ovvero dare indirettamente e involontariamente credito alla pseudoscienza (backfire effect). Una demistificazione efficace deve essere semplice e diretta.

    Per esempio quando si parla di “miracolo del sole” (gente che in luoghi mistici fissando a lungo il sole vede cose strane…) è sufficiente dire che è assolutamente normale che guardando OVUNQUE il sole senza protezione la vista inizia ad avere problemi. E che lo sanno anche i bambini che anche durante un’eclissi non si deve mai guardare il sole senza protezione altrimenti arrivano danni seri agli occhi…

    • Non credo che sempre fare una classifica di università sia pseudoscienza, a meno di non associare alla parola “classifica” il significato di “classifica delle universita’ migliori”.

      Ad esempio, se faccio una banale classifica delle universita’ italiane in base al numero di iscritti, e lo dichiaro esplicitamente illustrando in dettaglio la procedura di calcolo e l’insieme dei dati, non sto facendo pseudoscienza. Sto semplicemente facendo una lista ordinata sulla base del numero di iscritti. Se però aggiungo la frase “e quindi Roma La Sapienza e’ la migliore” allora faccio pseudoscienza.

      Altro esempio, se faccio una classifica di scienziati sulla base del loro sala-index e illustro in dettaglio l’algoritmo ed i dati utilizzati per calcolare il sala-index non faccio pseduoscienza. Se però aggiungo la frase “e quindi Giuseppe De Nicolao è il migliore” allora faccio pseudoscienza.

      😉

    • Marco Bella ha ragione: “La parola “migliore” è constantemente associata alle classifiche di università”, ma anche Salasnich ha ragione a porre una questione metodologica. Per molti versi, la disciplina scientifica entro cui andrebbero valutati gli algoritmi delle classifiche è la teoria delle decisioni e, quando si tratta di aggregare più indicatori, il “Multiple Criteria Decision Making”. Non per niente, la più feroce demolizione metodologica della Classifica di Shanghai usa proprio questi strumenti, citati anche nel titolo:
      ______________
      “Should you believe in the Shanghai ranking? – An MCDM [=Multiple Criteria Decision Making] view”
      http://www.lamsade.dauphine.fr/~bouyssou/BillautBouyssouVinckeScientometrics.pdf
      ______________
      Per fare un paragone, è come se nel terzo millennio qualcuno rifilasse agli allocchi dei prodigiosi reattori chimici il cui funzionamento si regge sulla Teoria del Flogisto (https://it.wikipedia.org/wiki/Teoria_del_flogisto).
      Naturalmente ci sarà (e c’è) chi si chiede perché è così difficile (se non impossibile) trovare classifiche che non siano confezionate in modo pseudoscientifico da dei maneggioni che si improvvisano esperti di valutazione. Io credo che la risposta stia negli scopi: se servono a supportare delle tesi ideologiche (serie A e serie B, necessità/utilità di concentrare le risorse in pochi centri di eccellenza, inefficienza di chi è destinato ad essere declassato/chiuso, etc) più che il rigore scientifico delle classifiche conta la loro capacità di giustificare i pregiudizi ideologici di chi le stila. Tanto più che l’uso di metodi rigorosi conduce inevitabilmente a evidenziare i limiti e le incertezze statistiche delle classifiche stesse, un esito del tutto in contrasto con lo scopo di trasmettere un messaggio elementare all’uomo della strada.
      Persino quando non ci sono da aggregare indicatori multipli e si considera un semplice tasso di mortalità in reparti ospedalieri la letteratura scientifica ha mostrato che ci vogliono strumenti più sofisticati di una semplice classifica:
      ______________
      Aylin, P., Best, N., Bottle, A. and Marshall, E. C. (2003) Following Shipman: a pilot system for monitoring mortality rates in primary care. Lancet, 362, 485–491.
      ______________
      Ma l’ideologia ha sempre amato (e sempre amerà) le soluzioni semplici di problemi complessi.

    • caro Luca,
      La parola “migliore” è constantemente associata alle classifiche di università, compresa la classifica del sole 24-ore. La domanda vera da porsi è “perché si costruisce una classifica o un qualsiasi elenco ordinato?”. E’ la risposta a questa domanda che apre scenari inquietanti….

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.