Quando nell’archivio IRIS è presente il full-text open (per esempio come postprint*), esso è automaticamente indicizzato da Google Scholar, per cui esso circola molto più facilmente e senza barriere. Inoltre, viene visto da unpaywall (un database aperto che contiene 23 milioni di articoli scientifici), il quale punta direttamente al PDF dell’articolo. Troppo bello per essere vero, direte voi: ci sarà un abbonamento da sottoscrivere, oppure qualche noiosa registrazione che chiede accesso ai nostri dati, oppure l’arricchimento di qualche oligopolio editoriale. Niente di tutto questo: IRIS (che sta per Institutional Research Information System) è uno strumento proprio, indipendente dai grandi editori oligopolisti, già adotttato dalla maggior parte degli atenei italiani. Ma non tutti lo sanno usare e tanto meno sono al corrente dei benefici che può offrire. Uno su tutti: se partecipate a un progetto europeo, grazie alla connessione con OPENAire, potete servirvi di IRIS per ottemperare ai gli obblighi sull’Open Access da rispettare per le pubblicazioni scientifiche peer-reviewed, che derivano dalle attività del progetto. Ne volete sapere di più? Non avete che da leggere questo articolo che spiega in modo facile e comprensibile le principali caratteristiche e potenzialità di IRIS.
*Postprint è la versione di un articolo sottoposto a una rivista che contiene già le modifiche richieste dai revisori, ma non ha il layout editoriale. Per questa versione dell’articolo la maggior parte degli editori permette la ripubblicazione in un institutional repository (come IRIS ad esempio) dopo un periodo di embargo. Pochi atenei, ad oggi, hanno curato questa parte di disseminazione dei risultati della ricerca.
L’Italia è uno dei pochi paesi che è riuscita a creare e implementare un CRIS (current research information System) comune alla maggior parte delle istituzioni, sviluppato dalle istituzioni che posseggono i dati che immettono. In pratica se una istituzione italiana ha lavorato bene e vuole sapere (o raccontare a tutti) quale sia la sua ricerca, quali sono i ricercatori che lavorano su questo o quel tema, e magari anche rendere disponibili i testi delle ricerche stesse, lo può fare. Se una istituzione ha lavorato bene, è in grado di monitorare i propri dati e di trarne informazioni utili e di farne oggetto di riflessione. Si potrà pensare che questo lo fanno anche molte altre istituzioni in giro per il mondo, ma poche (pochissime) si sono dotate di uno strumento proprio, indipendente dai grandi editori oligopolisti.
Nel 2014 la maggior parte degli Atenei italiani adottano IRIS, uno strumento di per sé ibrido, che ha una versione pubblica (metadati bibliografici e testi) e una versione di back office destinata alla governance, ai direttori di dipartimento, ai singoli ricercatori con tipologie di “viste” diverse. IRIS è basato su software open source e il fatto di essere strumento di disseminazione da un lato e di monitoraggio dall’altro lo rende certamente uno strumento complesso dal punto di vista dello sviluppo ma anche della sua alimentazione.
Su questo sito e altrove si trovano spesso tracce della insofferenza di ricercatori e professori che considerano IRIS uno strumento farraginoso e per niente amichevole.
In realtà IRIS si è evoluto molto grazie alla collaborazione di tutti gli atenei, e dal 2014 ad oggi ha automatizzato molte delle attività che prima erano manuali:
- La portabilità dei profili e delle pubblicazioni quando i ricercatori si spostano da una istituzione all’altra
- La possibilità di importare i dati dalle banche dati (pubmed, Crossref, scopus, Orcid), facendo anche importazioni multiple attraverso i DOI. Quando importo da una banca dati la maggior parte dei campi risultano precompilati, tranne quelli locali o quelli richiesti obbligatoriamente dal MIUR, quindi una volta importati i metadati le parti da compilare risultano davvero poche.
- La possibilità di inviare ad ORCID (ad esempio per le aree HSS) i dati già archiviati in IRIS, o di importare da ORCID i dati raccolti da crossref o altre banche dati.
- La connessione con OPENAire dove automaticamente vengono inviati i dati sulle pubblicazioni derivate da progetti finanziati dalla Commissione Europea
- La connessione e importazione automatica degli indici bibliometrici derivati da WOS o da Scopus e delle altmetrics (plumX, altmetric)
- Servizi di alerting che avvisano chi inserisce una registrazione doppia che ne esiste già una copia nell’archivio
- Il suggerimento dei possibili collegamenti con gli id di Scopus e WOS (da confermare a cura dell’autore)
- La possibilità per un coautore di riconoscersi come autore interno in una pubblicazione già presente nell’archivio
Certo molti autori, soprattutto in ambito STM (Scienza-Tecnologia-Medicina), sostengono di avere tutto disponibile in Arxiv, o in Pubmed, o in altri database pubblici o commerciali. Il fatto è che non esiste un database globale e comprensivo di tutte le discipline e di tutte le tipologie, per cui un ateneo multidisciplinare ad esempio non riuscirebbe mai ad avere un quadro completo della attività scientifica dei suoi ricercatori.
Gli IRIS italiani sono indicizzati da Google Scholar per cui quando è presente il full-text open nell’archivio questo circola molto più facilmente e senza barriere, viene visto da unpaywall che punta direttamente al PDF dell’articolo.
Una pagina di statistiche permette all’autore di verificare quante volte il suo lavoro open è stato scaricato, quante volte è stato visto e da quali nazioni e città.
Insomma le nostre istituzioni si sono dotate di uno strumento potentissimo, basato su standard internazionali, aperto, visibile ai motori di ricerca. Potenzialmente.
La sua efficacia dipende infatti dai ricercatori e dalle istituzioni. Si può fare l’adempimento e infilare nell’archivio dati a caso, si può prendere le informazioni che vengono immesse per buone, acriticamente e senza alcun controllo, e a quel punto avremo speso tutti (tanti) soldi e tempo per uno strumento che è inutile.
E siccome di informazioni ce ne è bisogno le andremo a chiedere agli editori. Pagando quegli stessi dati che noi avremmo già a disposizione.
Oppure possiamo decidere che questo strumento ci è utile, che può costituire, proprio per le sue caratteristiche, la base di una anagrafe nazionale aperta e visibile a tutti e che esiste una responsabilità individuale per i dati che vengono inseriti e della istituzione per i dati che espone e che devono essere validati.
La seconda opzione sembreberebbe quella più ragionevole, ma può essere realizzata solo con la collaborazione di tutti.
Ma Iris ce l’ha un’interfaccia online unificata da cui posso fare ricerche su tutti i documenti disponibili? Io ho sempre visto solo quelle singole delle università (che, se vuoi davvero ambire a un repository unificato e usabile, non sembra una grande idea).
Osservazione che ci conduce direttamente agli errori da evitare nella costruzione dell’anagrafe nazionale della ricerca. A tale proposito, si veda:
https://www.roars.it/anagrafe-nazionale-della-ricerca-anpreps-a-cosa-serve-e-gli-errori-da-non-fare/
Sì: si chiama OAI-PMH e consente di scegliere l’aggregatore che si preferisce. Il principale è BASE, che conosce quasi 5 milioni di pubblicazioni da archivi italiani:
https://www.base-search.net/Search/Results?lookfor=country%3Ait
(Di cui oltre 2 milioni di articoli, almeno 300.000 pubblicazioni con testo completo ad accesso aperto e circa 12.000 dotate di una licenza libera come la CC BY.)
Il problema di Google Scholar è di essere non molto affidabile. Certamente se lo scopo primario è la disseminazione dell’informazione va benissimo, se invece deve essere usato per i deliri bibliometrici Anvur allora i dati sono totalmente casuali.
Assolutamente d’accordo. Google Scholar è un comodo strumento di ricerca bibliografica e, come tale, anche di diffusione dei lavori indicizzati, soprattutto se è disponibile un full text “open”. Inutilizzabile per valutazioni bibliometriche, ranking etc etc. Su Roars ne abbiamo evidenziato i limiti a più riprese:
https://www.roars.it/come-ti-divento-uno-scienziato-citato/
https://www.roars.it/primo-capitolo-e-il-suo-h-index/
https://www.roars.it/classifiche-incredibili/
https://www.roars.it/google-scholar-mio-nipote-ed-io-quando-lacchiappacervelli-si-trasforma-in-sparabufale/
https://www.roars.it/del-rigore-metodologico-del-gev-13-2/
https://www.roars.it/fai-come-cingolani-diventa-anche-tu-highly-cited-bastano-10-minuti-successo-garantito/
https://www.roars.it/enlarge-your-h-index/
________
Last but not least, il TAR del Lazio, con sentenza passata in giudicato, ha annullato il criterio che utilizza per la costruzione di indicatori il motore di ricerca Google Scholar, sancendo di fatto l’illegittimità dell’intero impianto di valutazione adottato in Area13 (Economia) nei due esercizi VQR.
https://www.roars.it/tar-lazio-difetti-di-istruttoria-travisamento-dei-fatti-e-carenza-di-motivazione-azzerano-la-vqr-di-area13/
A maggior ragione allora è importante mettere tutto in IRIS, perché così i dati bibliometrici possono essere estratti e diffusi anche da altri in modo più trasparente, per esempio OpenAIRE, CORE, SemanticScholar o CiteSeerX.
https://core.ac.uk/
Mi scuso in anticipo per il commento da “Neanderthal” di fronte a tanto entusiasmo, ma vorrei commemorare brevemente un tempo, neanche troppo antico, in cui i ricercatori facevano ricerca in un modo diverso. Ideavano, lavoravano sul problema, pensavano, comunicavano, e poi scrivevano e pubblicavano i risultati della loro ricerca. In quei tempi antichi, il lavoro del ricercatore si concentrava sul fare ricerca e darne un resoconto chiaro. Molte tecnicalità, forse come lascito del Taylorismo, erano affidate/delegate a persone con competenze particolari. Ai tempi in cui i grafici si facevano sul carta da lucidi e tavolo da disegno, c’erano disegnatori professionali addetti alla resa delle figure. Il passaggio dal manoscritto alla versione dattiloscritta era compito di una segretaria più esperta e molto più veloce del ricercatore a scrivere a macchina. La diffusione del lavoro prima della stampa era compito della segreteria del dipartimento o istituto.
Poi vennero i computer personali e il ricercatore imparò a usare software per far grafici. Imparò ad usare sistemi di videoscrittura. Imparò a inviare i preprint su archivi digitali, imparò a trovare parole chiave per l’ indicizzazione, sigle, imparò ad inviare in forma telematica i lavori e gestire tutta la fase di revisione via web con interfacce e regole che cambiano ogni sei mesi. Imparò norme diverse sui copyright, imparò a gestire database per l’archiviazione sul sito della propria istituzione, imparò la differenza tra diversi tipi di Open Access, imparò le differenze tra diversi editori circa cosa è permesso fare o meno con i manoscritti pre- e post- referee. Imparò che queste regole cambiano nel tempo. Imparò cosa fossero i metadati. Imparò cosa vuol dire ORCID e a gestire le meraviglie della comunicazione incrociata tra vari database. Imparò a creare profili su google scholars e a cancellare materiale messo improvvidamente on-line su ResearchGate. Imparò a fare il beta-tester per le meravigliose piattaforme di ateneo e a gestire i propri dati rincorrendo una pletora di registrazioni con password diverse.
Vero che non si finisce mai di imparare. Adesso voltandosi indietro, una domanda riempie di sgomento il nostro ricercatore. Come avranno fatto nel tempo antico (fino agli anni ’70-’80 del secolo scorso) a produrre Scienza, neanche tanto scadente, senza sapere tutte queste cose? Con cosa riempivano il tempo che adesso serve per imparare ed aggiornarsi su tutte queste cose?
Giusta osservazione, ma non trovo dati che suffraghino l’ipotesi che l’avvento della pubblicazione elettronica abbia incrementato il costo in termini di tempo per i ricercatori. Può essere che scrivere a macchina, dover rifare tutto un foglio per un refuso o spedire lettere di carta richiedesse piú tempo e non meno, no? A meno che tutti i ricercatori avessero una/un segretaria/o.
Gli archivi aperti moderni sono fatti apposta per non doversi preoccupare di tutte queste cose. Il ricercatore inserisce solo un dato minimo, per esempio un DOI o un titolo, carica un file e al resto pensa o il software (anche estraendo automaticamente i metadati e provvedendo a conversioni varie) o il/la bibliotecario/a (verifica dei metadati, delle restrizioni legali e delle impostazioni preferibili).
Lo scandalo semmai è che gli editori “tradizionali” si facciano pagare somme principesche per poi non occuparsi nemmeno delle operazioni più tediose e ripetitive come la formattazione di un documento, col risultato che alcuni devono riformattarsi un articolo decine o centinaia di volte per sottoporlo ad altrettante riviste. Ci sono però delle soluzioni in software libero anche per evitare queste conversioni manuali, e la soluzione finale è una piattaforma aperta integrata che si occupi di tutte le fasi della pubblicazione dalla culla alla tomba. (Sperabilmente il bando della Commissione europea per la “European Open Science Platform” andrà in questa direzione.)