In questo post, primo di una piccola serie, descrivo i principali risultati dello studioThe Scientific Competitiveness of Nations” pubblicato su Plos One lo scorso dicembre, che ho scritto con i colleghi Giulio Cimini e Andrea Gabrielli (che ringrazio!).

Misurare la qualità della ricerca scientifica di un paese è di grande interesse per i decisori politici allo scopo di definire sia il suo finanziamento sia le sue priorità. Articoli e citazioni rappresentano una misura dell’output dell’investimento in ricerca: il numero di articoli scientifici è correlato all’attività svolta e il numero di citazioni da questi ricevuti è un surrogato della qualità scientifica, la loro popolarità. Mentre quando ci si riferisce a un singolo ricercatore questi numeri vanno trattati con grandissima cautela (si veda ad esempio qui, qui e qui), quando si considera la produzione di un intero paese si può ragionevolmente assumere, grazie ai grandi numeri in gioco, che ci sia una proporzionalità tra il numero totale di articoli e citazioni e la significatività della ricerca.

Per misurare l’impatto dei sistemi di ricerca delle nazioni abbiamo utilizzato i dati disponibili sul sito Scimago che riguardano 238 paesi, 27 campi scientifici che a loro volta sono suddivisi in 307 sotto-campi. Nell’analisi non abbiamo incluso (in prima battuta) i dati per le scienze sociali e le scienze umane, poiché è noto che le banche dati sono ampiamente incomplete per questi settori: lo stesso non avviene per le scienze naturali, la matematica, l’ingegneria e la medicina in cui le pubblicazioni sono, nella quasi totalità, in lingua inglese e su riviste internazionali. Questa situazione non è solo dovuta a una diversa convenzione adottata nei differenti campi del sapere, ma è anche il riflesso di un problema sostanziale.

Nelle scienze naturali, ad esempio, si studiano fenomeni che sono universali, cioè che occorrono qui e ora come in ogni altro luogo e istante: per esempio, il tempo della fisica è privo di posizione storica, mentre il tempo per i fenomeni sociali è proprio il tempo storico. Nelle scienze sociali il dove è il quando sono perciò fondamentali e questo implica una minore internazionalizzazione dei problemi e una maggiore attenzione a casi in specifici paesi e situazioni.

E’ ovvio che quando si confrontano paesi molto differenti (ad esempio, gli Stati Uniti e la Svizzera) bisogna tener conto del fatto che la produzione scientifica globale dipende dalle dimensioni del paese stesso: ad esempio dal numero di ricercatori o dall’investimento totale in ricerca. Poiché il numero di ricercatori non è semplicemente misurabile (ad esempio, in Italia c’è un problema non banale nel censimento dei ricercatori non permanenti), abbiamo usato, come indicatore per comparare diversi paesi, la spesa in ricerca scientifica e sviluppo. Più precisamente, a tale scopo, abbiamo utilizzato, come prassi in questo tipo di analisi, i dati della spesa dell’istruzione superiore per la ricerca e sviluppo (la cosiddetta Herd) che viene censita dall’Ocse.

journal.pone.0113470.g001

Nella figura sopra, è riportato il rapporto tra il numero totale di citazioni e la spesa Herd (espresso in dollari equivalenti – PPP$) per ogni paese (considerando il numero d’articoli si ottiene un risultato simile). La linea verde è (quasi) una retta: questa relazione implica semplicemente che la produzione della ricerca scientifica dipende linearmente dalle risorse che una nazione ha investito in essa. Le nazioni sopra/sotto la retta (ad esempio, Regno Unito, Israele, Canada, Nuova Zelanda, sopra; Giappone, Cina, Messico, Turchia, sotto) sono più/meno efficienti nella loro produzione scientifica rispetto all’andamento medio: un’analisi più raffinata, di cui discuterò in seguito, è quindi necessaria per identificare le ragioni di queste fluttuazioni. Tuttavia in prima battuta possiamo concludere che nella ricerca scientifica il risultato che si ottiene a livello di paese dipende dall’investimento, con delle deviazioni dalla media piuttosto contenute in quasi tutti i paesi al mondo e sicuramente per l’Italia che, anzi, si posiziona abbastanza bene. Sembra un risultato banale ma vale la pena ricordarlo, data la confusione che leggiamo spesso sul funzionamento della ricerca in Italia.

(fonte: http://www.ilfattoquotidiano.it/2015/01/21/ricerca-scientifica-spendi-ottieni/1356165/)

Send to Kindle

5 Commenti

  1. Beh, diciamo che la scala doppio logaritmica aiuta a far sembrare piccole le deviazioni.

    E NZL, ISR, GBR, US deviano parecchio verso l’alto.

    Non credo proprio che da questo grafico si possa dire che

    citation count = HERD**a

    con a = 7/5.

    Se i punti fossero tutti sulla retta o quasi ci potrei anche credere.

    Aspettiamo con ansia l’analisi delle fluttuazioni (deviazioni).

    • Interessante! Secondo me è moralmente lineare.

      L’unica cosa con cui non sono propriamente d’accordo è il titolo “tanto spendi, tanto ottieni”, che sembra (non dico che lo faccia) interpretare il plot come causa e effetto tra spesa e citazioni. Mentre credo che la relazione “moralmente” lineare sia dovuta al fatto che sia il numero totale di citazioni che la spesa totale siano fortemente correlati alla grandezza scientifica del paese.

      Quindi anche se la relazione è “moralemente” lineare, la ciccia non è in questo plot. La ciccia è nelle deviazioni (o nelle quantità opportunemnte normalizzate). Per esempio guardarei #citazioni/#articoli vs #herd/#articoli

      Curiosità tecnica. Le citazioni si riferiscono a un anno in particolare o a tutto il periodo coperto da scimago? E di dati herd a quale anno si riferiscono?

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.