Anvur / Approfondimenti / Classifiche internazionali / Finanziamento / Multimedia / Ricerca e Sviluppo / Valutazione / VQR

Record di studi a secco di fondi

Intervista a Francesco Sylos Labini sul Sole24ore del 17 marzo 2012

L’Italia è sesta al mondo nella produzione di paper scientifici in tema di medicina.
Ma anche la settima nella matematica e l’ottava nella fisica e nella computer
science. Eppure, secondo i dati Ocse, è la trentunesima su 34 paesi, quanto a investimenti in ricerca e istruzione avanzata rispetto al Pil. A prima vista, il ritorno sugli investimenti accademici sembrerebbe enorme, da primato mondiale. «E invece è solo un paradosso», commenta Francesco Sylos Labini, un ricercatore del Cnr che da anni si occupa di politica della ricerca.

«Il paradosso è che l’Italia ha effettivamente una posizione di rilievo nella produzione scientifica internazionale, specialmente in alcune materie», dice Sylos Labini, che è uno dei fondatori di Roars.it, un nome che sta giustappunto per return on academic research. «E non c’è solo la quantità, ma anche la qualità», visto che l’H-index, lo standard internazionale per la valutazione di un singolo ricercatore, un’istituzione o tutte le istituzioni di un paese, tiene conto di quanti articoli sono stati pubblicati, ma anche di quante volte sono stati citati da altri. «Il guaio però, è che gli investimenti sono di gran lunga sotto la media Ocse e che, nel giro di quattro o cinque anni, la riforma Gelmini riuscirà a diminuire sensibilmente il numero dei docenti universitari».

 

Prosegue qui

 

 

Send to Kindle
Tags: , , , ,

12 Comments

  1. Pingback: A proposito di qualità della ricerca | alfonsofuggetta.it

  2. Calogero Pace says:

    Il dato mi sembra discutibile. Bisognerebbe specificare alcune cose per poterne confermare la validità. Ad esempio:
    - Viene considerata la nazionalità (italiana) degli autori degli articoli o l’afferenza ad un ente italiano?
    - Le citazioni sono distribuite uniformemente da un punto di vista geografico o si concentrano in modo anomalo nell’ambito italiano?
    Tali risposte, ottenibili in modo automatico utilizzando database avanzati quali SCOPUS, consentirebbero (auspicabilmente) di fugare alcuni legittimi sospetti:
    - tali risultati sono realmente il frutto di enti italiani che operano in maniera eccellente, sebbene in condizione di sottofinanziamento? O sono il frutto del lavoro di ricercatori italiani eccellenti che sono stati espulsi dal sistema familistico-clientelare imperante e hanno trovato la propria realizzazione altrove?
    - come mai tanti risultati in termini di letteratura non portano ad una corrispondente mole di brevetti?

    In tempi ormai di valutazione esclusivamente quantitativa dei risultati della ricerca, o del profilo scientifico dei ricercatori, si assiste infatti al dilagare di comportamenti volti alla ricerca del “massimo della funzione ottimo”, piuttosto che di un reale interesse alla ricerca scientifica. Tradotto in pratica significa: scambio sistematico dei nomi fra autori, gestione scientifica delle citazioni, investimento di tempo azzerato sulle ricerche che non possano dare risultati pubblicabili entro un arco di tempo di uno-due mesi, proliferazione esponenziale delle riviste, riduzione degli investimenti in attrezzature e laboratori, riduzione dell’impegno sulla didattica, riduzione dell’impegno sulle attività organizzative (inclusi i dottorati di ricerca), etc., etc.
    Il sistema di valutazione non può fare a meno di “entrare nel merito” del contenuto di un prodotto bibliografico di ricerca, affidandosi esclusivamente ad indici quantitativi il cui valore può essere significativamente alterato mediante ovvii artifici.
    Per farlo servono criteri di responsabilità per le persone chiamate a valutare, terzietà vera e internazionalizzazione.
    Niente di inventato. Fanno così persino nei paesi emergenti (India, Cina), non solo nella citata Harvard.

    • Giuseppe De Nicolao says:

      Per quanto riguarda i brevetti i professori italiani non se la passano così male come si crede. Ricopio una tabella da un articolo di F. Lissoni (SW = Svezia, ITA = Italia, FRA = Francia):

      Academic inventors as percentage of total professors, by discipline

      SW ITA FRA ALL
      3.9 1.8 n.a. 2.1 Agricultural and veterinary
      8.1 4.2 4.2 4.5 Biological sciences
      10.2 10.8 8.6 9.7 Chemical sciences
      0.0 0.3 0.1 0.2 Earth sciences
      4.5 5.5 5.1 5.2 Engineering
      0.9 1.6 0.6 0.7 Math and info science
      4.3 1.9 4.0 2.8 Medical sciences
      5.6 2.7 2.4 2.8 Physical sciences
      4.2 3.9 3.9 4.0 All disciplines

      fonte: F. Lissoni et al. “Academic Patenting in Europe: New Evidence from the KEINS Database”, Research Evaluation, Volume 17, Number 2, June 2008 , pp. 87-102(16)

      http://www.unibg.it/dati/bacheca/530/25058.pdf 

    • Giuseppe De Nicolao says:

      Per quanto riguarda i dati citazionali, vengono considerate le afferenze.

      Per quanto riguarda la distribuzione geografica delle citazioni, SCimago ha mostrato con dati Scopus che l’impatto della produzione scientifica della quasi totalità degli atenei statali italiani (unica eccezione tra quelli censiti: Università del Molise) è maggiore o uguale alla media mondiale. Si veda:

      The research impact of National Higher education Systems
      http://www.scimagolab.com/blog/2011/the-research-impact-of-national-higher-education-systems/

      ed anche la discussione nel mio articolo:

      VQR: Gli errori della formula ammazza-atenei dell’ANVUR
      http://www.roars.it/online/?p=4391

      Come misura dell’impatto è stato usato il Normalized Impact del Karolinska Intitutet di Stoccolma (http://scimagoir.com/methodology.php?page=indicators)

  3. Francesco Sylos Labini says:

    - Il dato è il dato, casomai è l’interpretazione ad essere discutibile, a meno che non si pensi che la banca dati Scopus sia del tutto inaffidabile.
    - Viene considerata l’afferenza e non la nazionalità
    - La banca dati Scopus prende in esame l’intero paese, per capire quello che succede a livello più fine bisogna fare altri tipo di studi. Ma è impensabile che tutte le citazione vegnano da una singola istituzione. Per esempio basta vedere i dati di Che Rankings per capire dove sono collocati i gruppi di maggiori qualità nelle varie discipline: http://www.che-ranking.de/cms/?getObject=613&getLang=en
    - La classifica Scimago fornisce anche la produttività dei singoli enti di ricerca: http://www.scimagoir.com/ il lettore si può divertire a cercare i diversi enti ed istituzioni e vedere dove si collocano
    - Per i brevetti la situazione non è affatto così depressa per quanto riguarda ad esempio il CNR o i politecnici. Come una cosa sono gli articoli/citazioni che riguardano i risultati della ricerca di base ed un’altra cosa sono le applicazioni della ricerca. Le imprese ad alta tecnoilogia in Italia non solo sono molto poche ed investono pochissimo in ricerca e sviluppo, ma sono anche in evidente decrescita
    - il sistema di valutazione dell’anvur va esattamente nella direzione opposta che entrare nel merito della qualità ma si limita essenzialmente a misurare (male) dei parametri quantitativi.

  4. Io penso che di norma un brevetto serva ad impedire che altri sviluppino l’innovazione o la scoperta brevettata. Ne deduco che le università e i docenti universitari non dovrebbero brevettare un bel niente se vogliono perseguire il loro scopo di promuovere e diffondere le conoscenze.

  5. Non lamentiamoci troppo degli esercizi di valutazione dell’anvur. Non credo che con una diversa metodologia si riuscirebbe a valutare seriamente la ricerca scientifica per le sue capacità innovative. Normalmente risultati originali e significativi vengono riconosciuti dopo qualche decina d’anni, mentre gran parte dell’attività di ricerca va a finire nel dimenticatoio pur avendo svolto la sua importantissima funzione di alimentare una buona didattica universitaria ed anche una pratica professionale aggiornata e di alto livello. Ricordiamo però che i famosi RAE inglesi hanno svolto una eccellente funzione di “marketing” per l’università e per la ricerca. Gli effetti sono stati maggiori investimenti pubblici nella ricerca, aumento degli stipendi dei “professor” aumento del numero dei “professor”. Speriamo che anche le valutazioni italiane abbiano effetti analoghi. La VTR ha già dimostrato invece che risulta sostanzialmente impossibile distinguere in Italia tra università di serie A e università di serie B attraverso la valutazione della ricerca che vi si svolge. Ricerche eccellenti risultavano infatti presenti in tutte le grandi e medie sedi universitarie. Molto diversa era ed è la situazione in Gran Bretagna dove il 50% dell’nsegnamento universitario è impartito in ex Polytechnics, cioè in istituzioni che fino al 1992 erano “parauniversitarie”.

    • Concordo sul fatto che, se fosse fatto bene, il VQR non potrebbe che mostrare la sostanziale similitudine della gran parte delle Università italiane, con differenze magari anche rilevabili, ma non sufficienti a distinguere un bel niente in termini di “categorie”, “fasce”, ecc.

      Se proprio uno volesse trovare cose interessanti su cui puntare, indagasse sulla serietà degli esami e sulla distribuzione dei voti…

  6. Francesco Sylos Labini says:

    Caro Sandro,
    però si potrebbe obiettare che si diceva la stesso per la riforma Gelmini: bisogna approvarla così poi si rifanno i concorsi. Si è visto come è finita. Non è che la “valutazione” va bene a prescindere da quello che significa, così come la parola “riforma” vada bene a prescindere da come e cosa si riforma. Quello che si chiede è che la struttura dell’Anvur abbia qualcosa a che fare con quello che avviene all’estero. Non per altro, ma perché all’estero almeno ci sono stati “esperimenti”, progetti pilota, e si sono corretti palesi sbagli: non a caso le tecniche di valutazione fanne parte di un campo scientifico che ha il suo perchè (e lo vediamo bene ora!) ed ha anche i suoi standards. La letteratura scientifica serve anche a non riscoprire l’acuqa calda qualche centianio di volte.

    La valutazione è molto delicata, se si fa male si rischia di condizionare il tipo di ricerca che viene fatto dai singoli in maniera molto pesante. E in alcuni campi, quelli “politicamente sensibili”, le cose sono molto più rischiose e complicate di un conteggio fatto male di Hindex o Impact factors nelle aree delle scienze naturali. Dunque lamentarsi è dovuto.

  7. Pingback: 23 e 24 Marzo: l’urlo di scuola e università | Francesca Coin | Il Fatto Quotidiano

  8. Pingback: 23 e 24 Marzo: l’urlo di scuola e università | Economia e Finanza

  9. Pingback: Università Bene Comune » 23 e 24 Marzo: l’urlo di scuola e università

Leave a Reply

Newsletter Powered By : XYZScripts.com
http://alicefilm.com/ - http://alittleboysblog.net/ - http://brasssolutions.com/ - http://brunodunker.com/ - http://aoload.com/ - http://benidilusso.com/