Argomenti / Classifiche internazionali / Finanziamento / Meritocrazia / Ricerca e Sviluppo / Valutazione

Università: ciò che Bisin e De Nicola non sanno (o fingono di non sapere)

Diamo la parola ai dati

Alberto Bisin e Alessandro De Nicola hanno pubblicato su Repubblica un catalogo di possibili e auspicabili tagli alla spesa pubblica. In tale contesto, menzionano anche l’università italiana, lamentandone scarsa efficienza ed auspicando maggiore competizione come panacea per migliorare la qualità e risparmiare denaro.

Una terapia efficace presuppone una diagnosi corretta. Pertanto, proviamo a sottoporre alla verifica dei fatti alcune affermazioni di Bisin e De Nicola per capire se le loro raccomandazioni  si basano su una diagnosi riscontrata dai fatti.

È vero che l’università italiana produce poca ricerca?

Bisin e De Nicola scrivono:

“L’università continua a produrre … , anche se con alcuni distinguo, poca ricerca (Roberto Perotti docet)

Nel periodo 1996-2010, l’Italia è ottava al mondo come numero di pubblicazioni scientifiche e settima come numero di citazioni ricevute, si veda per esempio la seguente classifica di SCImago basata sul database Scopus.

Se si considera che nella classifica del PIL 2010 l’Italia occupa la decima posizione, non si può dire che l’Italia produca poca ricerca. Se si restringe la finestra di osservazione agli anni recenti (per esempio il 2010), la posizione dell’Italia non cambia, a parte il sorpasso da parte della Cina per quanto riguarda le citazioni. Il buon livello degli atenei italiani in termini di citazioni è confermato anche dalla comparazione internazionale dei loro “impatti normalizzati” effettuata da SCImago (The research impact of National Higher education Systems), sulla base dei dati Scopus riportati nel World Report SIR 2010. Infatti, come già discusso in un precedente articolo, tutti gli atenei italiani tranne uno mostrano un impatto normalizzato superiore alla media mondiale.

Forse Bisin e De Nicola intendono dire che l’università produce poca ricerca in rapporto alle risorse impegnate. Tuttavia, anche in questo caso vengono smentiti dai fatti, come  mostrato dai seguenti grafici tratti da un rapporto commissionato dal governo britannico (International Comparative Performance of the UK Research Base 2011, Fig. 6.2, pag. 65, Fig. 6.4, pag. 66).
L’efficienza viene calcolata dividendo l’output scientifico (articoli o citazioni) per la spesa in ricerca e sviluppo nel settore accademico (Higher education Expenditure on R&D – HERD). I grafici  mostrano in modo chiaro che la ricerca universitaria italiana è  più efficiente di quella francese, tedesca e giapponese sia come articoli prodotti che come citazioni ricevute.

Bisin e De Nicola richiamano come fonte Roberto Perotti (L’università truccata, Einaudi 2008), il quale nel confronto tra paesi (Capitolo 3.2.b, pp. 31-32) dichiara che “l’università italiana non ha un ruolo significativo nel panorama della ricerca mondiale“. Mettendo da parte tutti gli altri indicatori bibliometrici (numero di articoli e di citazioni, h-index nazionale, quota di articoli ad alto impatto), unanimi nel porre l’Italia al settimo-ottavo posto mondiale, Perotti si basa su un solo indicatore, il cosiddetto fattore di impatto standardizzato, che è una misura normalizzata del numero di citazioni medie per articolo. Classificare le nazioni in base al numero medio di citazioni per articolo appare una scelta capziosa per diverse ragioni. In particolare, questo indicatore, non consente comparazioni sensate tra nazioni di diverse dimensioni ed è, pertanto, inadatto alla compilazione di classifiche. Per esempio, una veloce interrogazione di SCImago in data 13/04/12 mostra che la classifica 1996-2010 metterebbe al primo posto il Territorio Britannico dell’Oceano Indiano (costituito da sei atolli dell’arcipelago Chagos) seguito dalle Bermuda.

Ciò nonostante, proviamo a stare al gioco di Perotti e, per evitare di dover competere con le Isole Fær Øer, la Guinea-Bissau e gli atolli di Tokelau, esaminiamo i dati forniti da SCImago restringendo l’attenzione alle prime 20 nazioni per numero citazioni nell’anno 2010.

Se consideriamo il numero di citazioni per articolo, in testa troviamo Svizzera, Danimarca, Olanda, Svezia, Belgio e Austria, nazioni relativamente piccole, ma che investono con convinzione in formazione e ricerca, seguite da Regno Unito, Germania, Stati Uniti e Canada. A non grande distanza, vengono Italia e Australia, che precedono la Francia e le restanti nazioni. Se consideriamo gli (scarsi) investimenti italiani in formazione e ricerca (come testimoniato dalle statistiche OCSE riportate nel seguito) si tratta di un risultato sorprendentemente buono.

A conferma della capziosità delle scelte di Perotti, che senso avrebbe lamentarsi che l’Italia stia al 12° posto in una classifica che assegna il primato mondiale a Danimarca e Svizzera relegando gli Stati Uniti al nono posto? Il lettore di Perotti non arriva a farsi questa domanda, perché l’autore evita di mostrare sia i numeri che le classifiche complete, limitandosi a fornire la posizione in classifica dell’Italia e una selezione di alcuni paesi che la seguono [1]. In particolare, Perotti omette di dire che secondo D. King (“The scientific impact of nations”, Nature 2004, Tabella 2), l’Italia è alla pari con la Francia, una nazione di dimensioni simili. È anche interessante notare che, tra i paesi che stanno dietro l’Italia, vengono menzionate solo le seguenti nazioni europee: Irlanda, Spagna, Portogallo, Grecia e Polonia. Perotti dimentica di informare il suoi lettori che nella Tabella 2 di King, dietro l’Italia finiscono anche Australia, Israele e Giappone e che il distacco dell’Italia da Canada e Finlandia è tutt’altro che abissale (1.12 contro 1.18).

Infine, Perotti ignora del tutto anche un altro indicatore, sicuramente più significativo del fattore di impatto standardizzato, ovvero come si ripartiscono tra le nazioni le pubblicazioni ad alto impatto scientifico, identificate come l’1% della produzione mondiale che riceve più citazioni. Sempre secondo King, nel periodo 1997-2001 l’Italia si colloca al settimo posto con il 4.31%.

Conclusione: affermare che l’università italiana produce poca ricerca è falso in termini di produzione assoluta ed ancor di più in rapporto alle (poche) risorse di cui dispone.

[1] “… lo stesso articolo di Nature mostrava l’Italia al tredicesimo posto; in Europa era davanti solo a Irlanda, Spagna, Portogallo, Grecia e Polonia” scrive Perotti a pag. 51 del suo libro. In realtà, nella Tabella 2 dell’articolo citato, l’Italia ha lo stesso punteggio della Francia che la precede in ordine alfabetico e pertanto la sua posizione sarebbe dodicesima-tredicesima a pari merito.

 

Università sprecona oppure sottofinanziata?

Bisin e De Nicola scrivono:

E per i settori come la scuola, l’università e la sanità a quando l’iniezione di sostanziose dosi di concorrenza e merito? Perché pagare allo stesso modo il professore (o il medico) bravo e volenteroso e quello incapace e pigro? … La competizione salva denaro.

Bisin e De Nicola sono convinti che ci siano margini per risparmiare denaro nel settore dell’università. Una convinzione del tutto logica se l’università italiana fosse sovrafinanziata e sprecona come sostenuto da Roberto Perotti:

la spesa italiana per studente equivalente a tempo pieno diventa 16 027 dollari PPP, la più alta del mondo dopo USA, Svizzera e Svezia

R. Perotti, L’università truccata, Einaudi 2008, pag. 38

Per capire cosa c’è di vero, controlliamo cosa dicono le statistiche OCSE esaminando due grafici tratti dall’edizione 2011 del rapporto “OCSE Education at a Glance”.

Il primo grafico (Chart B2.2, pag. 227) riporta la spesa per l’università, espressa come percentuale del PIL. Si vede che gli USA sono la nazione che spende di più mentre l’Italia si trova ad essere 31-esima su 34 nazioni considerate con una spesa pari al 65% della media OCSE. Peggio di noi solo Repubblica Slovacca, Ungheria e Brasile. Per 28 nazioni del grafico, la spesa è disaggregata in tre componenti: istruzione in senso stretto, interventi di sostegno agli studenti (trasporti, vitto, alloggi) e ricerca e sviluppo. Se si considerano le spese di istruzione in senso stretto, l’Italia è 26-esima su 28 nazioni (Table B6.1, pag. 276).

Difficile pensare che siano possibili grandi risparmi senza precipitare nel terzo mondo. Tuttavia, dato che la percentuale di laureati tra i giovani italiani (20% nella fascia 25-34 anni) è bassa rispetto alla media OCSE (pari al 37% nella stessa fascia di età, vedi Chart A1.1 pag. 40), qualcuno potrebbe obiettare che la bassa spesa non esclude possibili sprechi, tesi effettivamente sostenuta da Roberto Perotti nel suo libro L’università truccata, a costo di ignorare alcune statistiche OCSE e di “ritoccarne” altre. Esaminiamo direttamente la statistica OCSE a suo tempo ignorata da Roberto Perotti.

La figura (Chart B1.4, pag. 212) riporta la spesa cumulativa per studente lungo la durata media degli studi universitari (cumulative expenditure per student by educational institutions over the average duration of tertiary studies). L’Italia è 16-esima su 25 nazioni, con una spesa inferiore al 75% della media OCSE.  Da notare che, come osservato dall’OCSE, la spesa cumulativa per studente lungo la durata media degli studi rimane la stessa a prescindere dalla velocità nella progressione degli studi ed ha quindi il pregio di non richiedere correzioni per il fenomeno degli studenti fuori corso e inattivi.

Roberto Perotti nel suo libro non riporta questa statistica OCSE e preferisce rivolgere le sue attenzioni alla spesa annuale per studente, un indicatore che è influenzato dalla durata degli studi ed il cui uso comparativo è esplicitamente sconsigliato [2] nell’edizione 2007 di OCSE Education at a Glance, utilizzata come fonte da Perotti. Il quale prosegue con un rocambolesco raddoppio della spesa italiana, giustificato in base ad una compensazione “fai-da-te” dei fuori corso effettuata solo per l’Italia. Possibile che a Perotti fossero sfuggite le spiegazioni, invero assai chiare, di Education at a Glance?

Conclusione: È difficile, se non impossibile, immaginare ulteriori risparmi, a parità di prestazioni, per l’università italiana che è una delle meno finanziate e con un costo per studente decisamente inferiore alla media OCSE. Da notare che questi dati si riferiscono al 2008 e non tengono conto dei tagli operati dal governo Berlusconi.

[2] “Both the typical duration and the intensity of tertiary education vary among OECD countries. Therefore, the differences among countries in annual expenditure on educational services per student (as shown in Chart B1.2) do not necessarily reflect the variation in the total cost of educating the typical tertiary student.” OCSE Education at a Glance 2007, pag. 178. Tale avvertimento continua ad essere presente anche nelle edizioni successive, si veda per esempio pag. 211 di Education at a Glance 2011.

Più fatti e meno propaganda

Le affermazioni di Bisin e De Nicola sull’università che abbiamo sottoposto a verifica non trovano riscontro nei fatti. Lasciamo ad altri verificare se il resto del loro articolo sia più aderente alla realtà.

Nota: Elaborare una valutazione statistica della consistenza numerica dei “concorsi farsa” (non è in dubbio la loro esistenza e deprecabilità, ma la diffusione del fenomeno) non è banale. Per le scienze “dure”, coperte dai database bibliometrici, si potrebbero esaminare gli indicatori bibliometrici dei vincitori. Non essendo possibile raccogliere dati completi in poche ore, lasciamo ad una prossima indagine la verifica di quanto risponda al vero l’affermazione di Bisin e De Nicola sulla “disarmante regolarità” dei concorsi farsa.

 

Send to Kindle
Tag: , , , , , , , , , , , , , , , ,
Newsletter Powered By : XYZScripts.com