Nei mesi passati e con ancora maggiore evidenza in queste settimane, da quando il decreto per la VQR è stato pubblicato, si è assistito ad un lavorio febbrile da parte di Società scientifiche, Consulte e sottogruppi dei diversi GEV (Gruppi di esperti della valutazione). Ciascuno di questi soggetti, su richiesta o volontariamente, ha prodotto o sta producendo la propria lista ordinata di riviste con un occhio a quello che è già stato fatto da gruppi più solleciti. O forse no.
Il motivo di tale agitazione è dovuto al fatto che in alcune aree, tipicamente dalla 10 alla 14, non esistono database bibliografici o bibliometrici di riferimento e che, mentre i GEV delle aree dalla 1 alla 9 potranno avvalersi anche di tali strumenti, per le discipline umanistiche attualmente non c’è (quasi) nulla e certamente non esiste uno strumento unitario.
Il risultato sono una serie di liste (alcune su 4 livelli, altre su 3: A, B, C, D oppure A, B, C) ciascuna frutto di criteri che i singoli gruppi hanno autodefinito, ovviamente non estraendoli dal cappello, ma basandosi su esperienze già in atto, spesso con un atteggiamento di soggezione rispetto a quanto avviene nei più avanzati paesi anglofoni, e certamente in maniera in gran parte scoordinata.
Lo scopo di questo lavoro, se seriamente impostato (e in ciò dovrebbe fare tesoro dell’esperienza australiana, di cui si è già parlato su Roars) dovrebbe essere quello di servire come stimolo per le riviste nazionali ad evolversi nella direzione degli standards europei; allo stesso tempo esso dovrebbe costituire una indicazione per i giovani studiosi e soprattutto un supporto per chi deve valutare i prodotti della ricerca. Poniamo un articolo valutato in maniera pessima pubblicato su una rivista reputata di livello eccellente (A), o un articolo valutato come ottimo ma pubblicato in una rivista di fascia mediocre (C). Non è detto che il ranking del contenitore debba mutare il giudizio sul prodotto oggetto di valutazione preso in sé, ma forse può suggerire delle riflessioni e costituisce in ogni caso una informazione in più per chi è incaricato di giudicare. Il tutto nella piena libertà dei valutatori di formare il proprio giudizio.
Se prendiamo nel dettaglio queste liste e ne esaminiamo i titoli uno per uno troveremo che alcuni dei titoli in classe A o in B sono cessati o discontinui e altri sono serie monografiche: va rilevato a questo proposito che il sito docente del MIUR non riconosce le serie monografiche come riviste e che i lavori ivi pubblicati sono considerati come contributi in volume, non come articoli. Non esiste uno schema di compilazione uguale per tutti che indichi quali dati devono essere presenti nella lista ordinata e in quale forma, per cui negli elenchi manca perfino un elemento fondamentale per identificare con sicurezza una rivista, l’ISSN (laddove non è presente, in mancanza di questo identificativo si potrebbe almeno indicare l’editore).
Pensiamo al lavoro delle commissioni che hanno prodotto queste liste, alle discussioni, al tempo impiegato per formulare criteri di valutazione e moltiplichiamolo per ogni lista. E alla fine il risultato saranno dei ranking non comparabili, neppure in aree in gran parte affini come la 10 e la 11 (o la 12), perché basati su ragionamenti, criteri di valutazione e su pesi differenti: alla fine una A degli archeologi potrebbe perfino corrispondere a una B dei latinisti e questo solo perché per i secondi la percentuale di riviste in fascia A è stata fissata a una soglia inferiore. Inoltre, proprio perché i rankings sono di forma assai differente, per poter essere utilizzati dovranno essere giocoforza uniformati e ricondotti ad unità.
In effetti il punto è proprio questo. La necessità di una lista unica, per le aree dove non esistono altri strumenti, che nasca dagli stessi presupposti: uguali criteri e uguale forma. E’ vero che si parte solo ora con questo tipo di sforzo, ma appunto per questo sarebbe stato necessario iniziare con un metodo uguale per tutti (autori, editori, valutatori, Cineca, Ministero). A cominciare dalla definizione di cosa si intende per rivista come prodotto editoriale: quali caratteristiche essenziali deve avere una pubblicazione per essere considerata rivista (a titolo d’esempio: menzione del comitato editoriale, del direttore responsabile, editore e luogo di edizione, esistenza da almeno un anno), quale forma essa debba avere (per esempio, menzione della periodicità, indicazione delle afferenze di autori e membri del comitato editoriale, data di ricevimento e accettazione degli articoli), quale gestione e politica editoriale (per esempio ISSN, sistema di peer review adottato, presenza di revisori esterni, terzietà del comitato scientifico, periodicità effettiva), quali caratteristiche dei contenuti (originalità, presenza di abstracts e parole chiave in italiano e in lingua straniera, riferimenti bibliografici, presenza di indicazioni per gli autori e nel caso di riviste online servizi a valore aggiunto, metaricerca, indicizzazione ecc.).
Sarebbe stato opportuno (e sarà certamente opportuno) a livello centrale stabilire e suggerire uno schema di metadati che qualifichino le riviste, magari mettendo a disposizione di chi deve valutarne la qualità uno strumento online di cui ANCE (il catalogo delle riviste gestito da Cineca e utilizzato dal sito docente come authority file), opportunamente ripulito e con l’aggiunta di identificativi per l’ambito disciplinare o per argomento, potrebbe costituire il nucleo di partenza, insieme a una griglia di valutazione a maglie larghe a cui attenersi e da adottare in maniera più o meno stringente a seconda dell’ambito disciplinare e delle sue specificità.
Solo attraverso uno sforzo di normalizzazione formale, ma anche dal punto di vista dei criteri, (e una sua conseguente traduzione in uno strumento online consultabile da chiunque e aggiornabile in tempo reale) il lavoro dei diversi gruppi impegnati nell’esame delle riviste potrà avere un impiego pratico ed efficace a supporto della peer review. Occorre dare indicazioni agli editori sugli standards da rispettare, permettere di promuovere la produzione italiana valutata eccellente presso le comunità scientifiche internazionali, fornire indicazioni e parametri agli studiosi più giovani.
Sono d’accordo sulla necessità di avere punti di riferimento della qualità sia per chi valuta sia per chi si accinge a pubblicare, come gli studiosi più giovani, almeno nella situazione attuale. Tuttavia il lavoro di censire le riviste e attribuire un ranking mi pare un po’ come svuotare il mare con un cucchiaio. Il mondo editoriale, effettivamente rimasto piuttosto ingessato per quasi quattrocento anni, si sta finalmente evolvendo. Chi può mantenere una qualunque lista di pubblicazioni autorevoli quando il mondo della ricerca dovrebbe invece puntare a liberarsi del tutto e finalmente dal dominio dell’editoria commerciale, votata al profitto economico e non al progresso della scienza?
Se i ricercatori adottassero modalità di pubblicazione (in senso etimologico, ossia “rendere pubblico”) dei risultati della ricerca che li rendessero disponibili alla comunità scientifica per un giudizio equo e trasparente alla portata di tutti gli esperti, la valutazione della ricerca diverrebbe semplice come l’uovo di Colombo e si potrebbero correggere le più gravi storture della bibliometria pura o della peer review pilotata dagli editori, che conducono a marginalizzare la ricerca innovativa e fuori dal circuito della big science.
Nel post sui “numeri tossici che minacciano la scienza” (https://www.roars.it/?p=339) De Nicolao scrive che “corriamo il rischio di seguire in ritardo una moda che mostra già diverse crepe”. Non mi aspetto però che da una società in decadenza da almeno 1700 anni arrivi una rivoluzione :-(
Non sarei così pessimista. Le cose stanno cambiando, lentamente. Cambiano le strategie di pubblicazione, cambia anche la consapevolezza degli autori soprattutto nelle aree HSS. Cambiano gli strumenti di misurazione e gli indicatori. Cambia la gestione dei diritti. Ma nel frattempo è necessario avere punti di riferimento il più oggettivi e condivisi possibile. Ed è necessaria anche una riflessione sulle caratteristiche e sulle scelte delle sedi editoriali. L’ente per la valutazione australiano ripropone per il 2012 la lista di riviste di riferimento (che in primavera aveva deciso di non adottare ai fini della valutazione della ricerca) confermando l’utilità del lavoro fatto anche se ne è previsto un impiego diverso. Credo che in questa fase di transizione, che potrebbe durare anche qualche anno, strumenti ben congegnati e soprattutto pubblici possano essere ancora utili, senza ovviamente risultare definitivi.
Paola Galimberti per fortuna ha ragione: le cose stanno cambiando e anche in ambito umanistico la sensibilità rispetto ad un protocollo condiviso, simile a quello che c’e’ nelle scienze, sta piano piano prendendo piede. Come sottolinea giustamente la Galimberti, questo processo è stato guidato più dall’impellente necessità della decrescita dei fondi a disposizione (così come in realtà tutto il progetto VQR) piuttosto che da un reale stimolo al miglioramento, ma lasciamo stare.
Piuttosto vorrei sottolineare un punto che ritengo cruciale nelle HSS. Salvaguardare la specificità di una cultura umanistica, legata per sua natura alla lingua, NON vuol dire che il suo impatto a livello internazionale non sia quantificabile. Ad esempio: se uno parla di Goldoni o d Canaletto, si aspetta che chiaramente a Venezia ci siano degli esperti in materia. Ma se l’impatto di questi esperti non attraversa il confine del Veneto, allora questa e’ autoreferenzialità e NON salvaguardia dell’identità culturale.