In Italia stiamo assistendo allo scontro tra coloro che usano Impact Factor, h-index e derivati come una clava per scardinare le baronie nazionali; e coloro che negano che gli indicatori bibliometrici abbiano qualsiasi significato ed utilità. In realtà gli indicatori bibliometrici, quando ben costruiti, sintetizzano informazioni sulla produzione scientifica (di qualità) e sull’impatto della ricerca di individui, gruppi, istituzioni e nazioni. Essi ricavano informazioni dall’osservazione delle procedure condivise da secoli nella comunità accademica internazionale.

La caratteristica fondante dell’autonomia del mondo della ricerca è l’idea che i soli in grado di giudicare la qualità del lavoro scientifico sono i pari, cioè altri scienziati competenti capaci di riprodurre, validare o confutarne i risultati. Per secoli questo meccanismo è stato sufficiente a garantire la crescita della scienza. Negli anni recenti la centralità della conoscenza quale fattore determinante la ricchezza delle nazioni, ha reso stringente per i governi la necessità di distribuire le risorse pubbliche per la ricerca in modo efficiente. Per questa ragione i decisori pubblici hanno bisogno di procedure di valutazione che permettano di riconoscere la ricerca migliore per finanziarla. Gli unici in grado di valutare la ricerca continuano però ad essere gli scienziati. Gli strumenti bibliometrici, quando usati correttamente sono in grado di incorporare in forma sintetica informazioni sulla qualità e l’impatto della ricerca.

Per avere una idea approssimativa della produzione scientifica di qualità di un ricercatore/gruppo di ricerca/istituzione si può ricorrere al semplice conteggio del numero di pubblicazioni da lui prodotte in un certo periodo di tempo e pubblicate su riviste che adottano una qualche forma di peer review. La procedura pressoché universalmente accettate nella comunità accademica internazionale prevede che un lavoro accettato per la pubblicazione su una rivista internazionale abbia superato un vaglio preventivo di qualità da parte dei pari. Si badi bene che la revisione dei pari è prevista non solo per le riviste scientifiche come Nature o Lancet, ma anche per quelle umanistiche, come ad esempio l’American Historical Review. Nel dibattito italiano circolano opinioni radicali a questo proposito che arrivano addirittura a sostenere che l’adozione generalizzata della revisione dei pari prima della pubblicazione leda la maestà del direttore o del comitato scientifico di una rivista (per esempio Giuseppe Galasso sul Corriere della Sera). Si tratta di un esempio significativo di quanto le procedure condivise a livello internazionale siano estranee a parti della comunità accademica italiana, dove le riviste scientifiche nazionali sono utilizzate come strumenti per la promozione della propria ricerca e dei propri allievi, ben al riparo dalla competizione scientifica internazionale (come qui è mostrato in relazione alle riviste di economia).

Per avere una idea approssimativa dell’impatto si può ricorrere invece a qualche forma di conteggio delle citazioni. Robert K. Merton ha documentato nei suoi lavori che da secoli l’individuazione del valore di uno scienziato avviene attraverso il riconoscimento pubblico della sua priorità in una scoperta. I giganti della scienza possono aspirano all’eponimia (sistema copernicano; teorema di Pitagora; legge di Gauss etc.); il riconoscimento del contributo degli umili artigiani passa più modestamente per la citazione del proprio lavoro da parte di altri ricercatori. In questo consiste l’impatto di un contributo scientifico, che è tanto più elevato tante più sono le citazioni che esso ha ricevuto. Gran parte degli indicatori bibliometrici, compreso l’Impact Factor,  si riducono al conteggio delle citazioni, e quindi incorporano il giudizio di qualità espresso dagli altri scienziati.

Certo è necessario fare attenzione a non confondere l’impatto di un contributo scientifico con il suo valore di lungo periodo. Moltissimi lavori molto citati in un certo periodo, si riveleranno poi del tutto ininfluenti per lo sviluppo successivo della ricerca, ed il loro impatto è stato frutto della “moda scientifica” del momento. All’opposto ci sono moltissime “belle addormentate”: contributi scientifici rimasti dimenticati negli scaffali delle biblioteche e poi riscoperti come fondamentali a decenni di distanza. Le scoperte di Mendel nel campo della genetica vegetale, ad esempio, aspettarono un quarto di secolo prima di essere comprese dai pari. E si deve fare anche attenzione alla possibilità che la revisione dei pari e le citazione siano manipolate al fine di migliorare gli indicatori, come provano i casi discussi da Giuseppe De Nicolao.

Conoscere significato e limiti degli indicatori bibliometrici è condizione necessaria per favorirne l’uso accorto e consapevole. Il loro rifiuto aprioristico, quand’anche sorretto da nobili ideali, favorisce gli argomenti massimalisti di coloro che ritengono che siano la panacea di tutti i problemi della ricerca italiana. E che hanno lavorato per farli introdurre spesso in forme tecnicamente errate in leggi e regolamenti ministeriali.

Print Friendly, PDF & Email

4 Commenti

  1. Personalmente non aderisco alla teoria “normativa” delle citazioni, e invito gli altri a non farlo.
    Detto questo, l’informazione offerta dalla bibliometria può essere (e meramente lo è) un elemento aggiuntivo a disposizione dei valutatori. Osservo peraltro che il problema delle basi di dati è molto, molto serio.

    Inviterei però i responsabili dei sistemi di valutazione ad occuparsi di studiare, approfondire, perfezionare e diffondere una cultura della valutazione “a tutto tondo”, rispettosa della complessità dell'”attribuzione di valore” all’attività di ricerca.

    In questo senso ha molto più bisogno di essere curata e promossa la parte che riguarda l’apprezzamento di qualità non-quantificabili che l’agitarsi attorno all’elaborazione di “griglie di indicatori” – ed è proprio ciò che fanno anche in quei Paesi dove pure sono nate e sono state diffuse le pratiche bibliometriche.

  2. Tre brevi cose:
    – quanti ricordano l’articolo di più di dieci anni fa, dove Figà Talamanca svelava che l’importanza dell’IF era come strumento usato da “giovani leoni” di ambiente medico, formatisi negli USA, per scardinare le baronie italiche di medicina? Chi agita ora l’h-index?
    – con buona pace della maglietta nella foto, Jorge E. Hirsch non è stato così immodesto da definire l’indice col maiuscolo, ma solo col minuscolo. Qualcuno potrebbe ricordarlo, ad esempio al Ministero della Salute, che nel bando della ricerca chiede l’H-index. Ufficiale per giunta!
    – a questo proposito, quanti sanno chel’h-index di Scopus è basato solo sui lavori dal 1996, e quindi restituisce numeri bassi per i dinosauri della ricerca?

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.