Le famigerate mediane dell’Anvur, l’agenzia nazionale per la valutazione di università e ricerca hanno suscitato perplessità e critiche nel mondo universitario e della ricerca. Vari interventi puntuali apparsi sul blog Roars documentano in modo serio e approfondito la fallacità e la scarsa affidabilità degli indicatori bibliometrici introdotti dall’Anvur per valutare la qualità di ricercatori e docenti che saranno reclutati dagli atenei italiani. I “difetti di fabbrica” di questo sistema sono molteplici ed evidenti agli addetti ai lavori, forse solo i sette saggi “samurai” del consiglio direttivo Anvur non se ne sono accorti.
Purtroppo, buona parte della comunità scientifica e accademica sembra aver accettato passivamente l’utilizzo degli indicatori, quasi si trattase di un male ineluttabile, come d’altra parte ha fatto per tutte le leggi e norme emanate sull’università da 10 anni a questa parte. Ma i rischi e gli effetti indesiderati, sia a breve che a lungo termine, che deriveranno da questo tipo di sistema di valutazione, da questo pasticcio casereccio, sono tanti e tali che come professore universitario e ricercatore sento la necessità di non restare in silenzio e di esprimere le mia grande preoccupazione.
Cos’è che non convince in questo sistema di valutazione “automatico” basato su indicatori e mediane? E’ innegabile che una seria e trasparente valutazione dell’attività scientifica rappresenta un requisito fondamentale e irrinunciabile per il reclutamento di ricercatori e docenti, ma è quantomeno rischioso affidarla esclusivamente a rigidi indicatori numerici che a livello internazionale sono ritenuti non solo insufficienti, ma anche fuorvianti.
Nei settori bibliometrici, ad esempio, oltre al numero di articoli pubblicati negli ultimi dieci anni, gli altri due indicatori stabiliti dall’Anvur sono l’H-index e il numero citazioni. Questi ultimi sono però ridondanti in quanto rappresentano le facce di una stessa medaglia, ovvero si tratta di fattori che stimano entrambi il valore di un articolo in funzione del numero di citazioni ottenute, parametro a cui viene attribuito, quindi, già in partenza un peso troppo determinante ai fini della valutazione. Come se non bastasse, le mediane di questo “trittico” della valutazione mostrano forti disparità tra macro-settori, anche tra quelli appartenenti alla stessa area (vedi ad esempio le Scienze Biologiche). In alcuni di essi risultano esageratamente alte, forse gonfiate, tanto da sollevare seri dubbi sui criteri utilizzati per calcolarle, non a caso si parla di “mediane fai-da-te”. Di conseguenza, in certi casi basta avere una produzione scientifica normale o appena mediocre per superare le mediane, mentre in altri è indispensabile un curriculum da premio Nobel.
E’ evidente, inoltre, che il superamento delle mediane non riflette necessariamente livelli assoluti di qualità, nè di autonomia scientifica o di originalità di ricerca. Infatti, nell’ambito degli articoli in esame, gli indicatori non permettono affatto di entrare nel merito del contributo apportato dai singoli autori. Soprattutto nelle aree di Biologia e Medicina, che rappresentano due delle aree CUN più ampie, l’ordine degli autori di un articolo è invece fondamentale perché rispecchia il contributo al lavoro, i principali di solito sono il primo e ultimo. Ma non finisce qui, gli indicatori Anvur non tengono nemmeno in considerazione il livello qualitativo delle riviste scientifiche dove vengono pubblicati gli articoli presentati dai candidati. Almeno nelle suddette aree, l’impact factor sarebbe stato un possibile correttivo, un indicatore utile per stimare il livello delle riviste scientifiche, ma l’Anvur ha stranamente deciso di non considerarlo.
Stando così le cose, nel complesso il sistema dell’Anvur contiene tante e tali anomalie che, se non verranno introdotti dei sani e seri rimedi, rischierà di alterare le valutazioni. Il primo effetto ovvio e indesiderato sarà premiare la quantità a scapito della qualità: ad esempio, potrà accadere che chi ha pubblicato 20 articoli su Journal of Pizza&Fichi, rivista casereccia con impact factor di 0.005, supererà tranquillamente la mediana, a scapito di chi ha pubblicato 10 articoli su Nature, con impact factor 36, che troverà un semaforo rosso a sbarrargli la strada. Ma un’altra aberrazione facilmente prevedibile, un’altra orrida creatura sarà generata dagli esperimenti del “dottor Anvur”, per utilizzare il calzante soprannome coniato da Roars: i settori con mediane più basse, quindi di livello minore, potranno attrarre più candidati abilitati e cresceranno (ma solo dal punto di vista quantitativo) a discapito dei settori più competitivi con mediane più alte, più difficili da essere superate. Un’eccezione a questa tendenza sarà rappresentata da quei campi di indagine che nei vari macro-settori sono già fisiologicamente più diffusi e dominanti. Ad esempio, sempre per rimanere nell’area biomedica, l’utilizzo del trittico valutativo dell’Anvur avvantaggerà non poco chi svolge studi applicativi in sistemi cellulari umani che, in termini di articoli (con eserciti di autori), citazioni e visibilità, di solito raccolgono di più rispetto ad altri studi, anche eccellenti, condotti però su organismi modello.
Infine, non bisogna dimenticare altri possibili effetti “mostruosi”, altre ricadute negative che l’utilizzo di indicatori e mediane potrà avere soprattutto sui più giovani. E’ chiaro che d’ora in poi, nel “villaggio dei dannati della ricerca italiana” molti dottorandi, borsisti e assegnisti di ricerca e neo-ricercatori saranno impegnati in un nuovo sport estremo: la spasmodica e ansiosa rincorsa al superamento delle mediane, privilegiando sempre di più la quantità alla qualità. Il rischio è che molti giovani tendano in primo luogo a pubblicare molto e in fretta, scegliendo settori di indagine che normalmente fruttano più citazioni di altri e puntando ad appartenere a gruppi accademici potenti e protettivi. E tutto questo a discapito di autonomia, approfondimento, curiosità e originalità: valori che credevamo fossero i veri requisiti fondamentali di una buona attività di ricerca.
E’ lecito chiedersi come mai questi aspetti siano sfuggiti ai sette saggi dell’Anvur. Abbiamo solo a che fare con delle loro clamorose sviste, oppure è possibile che si tratti del frutto di scelte meditate i cui effetti nocivi non erano stati considerati al momento di programmare l’esperimento? In ogni caso, si tratta di grosse falle nella “nave dell’Anvur” che si proponeva di stimare oggettivamente la produzione scientifica di ricercatori e docenti, falle che rischiano di farla affondare appena salpata.
Non sarebbe stato più proficuo per i sette saggi confrontarsi prima con la comunità di ricercatori e docenti e con le società scientifiche? Non sarebbe stato più saggio per i saggi, perdonate il calembour, arrivare a definire dei criteri valutativi il più possibile condivisi? Ovviamente sì, invece l’Anvur ha preferito agire come fosse un essere alieno sbarcato sulla terra per soggiogare definitivamente il genere umano.
Con l’utilizzo degli attuali indicatori bibliometrici e delle relative mediane, l’esperimento del “dottor Anvur” rischia seriamente di dar vita a delle mostruosità, a delle valutazioni falsate che in molte aree tenderanno soprattutto a produrre una meritocrazia alla rovescia: un risultato che ribalta gli obiettivi originali dell’agenzia di valutazione, un vero incubo da cui ci si vorrebbe svegliare al più presto! Se questi sono i presupposti, allora sarebbe più giusto che l’Anvur venisse ribattezzata “Ansvur”, ovvero “Agenzia nazionale della svalutazione di università e ricerca”.
Ma gli effetti deleteri dell’utilizzo delle mediane non finiscono qui, esse avranno un impatto negativo, una sorta di effetto boomerang, anche sulla chiamata di chi è già idoneo, avendo superato i concorsi dell’ultima mandata del 2010.
In Italia tutto è possibile: infatti, lo scorso 26 marzo il Senato accademico della Sapienza di Roma ha deliberato l’attivazione di una procedura per la chiamata degli idonei di prima fascia da cui sarà escluso chi non supera le tre famigerate mediane.
In particolare, nell’avviso di censimento inoltrato dall’Area risorse umane della Sapienza si legge quanto segue:
Ammissione al censimento. Sono ammessi a produrre la documentazione curriculare i docenti Sapienza, in possesso della idoneità, conseguita ai sensi della Legge 210/98, (si ricorda che la durata dell’idoneità è stabilita in 5 anni) ed in possesso di requisiti di qualità scientifica non inferiori a quelli individuati dall’ANVUR per l’abilitazione nazionale dei professori di I fascia, con la variazione che devono essere posseduti tutti e tre i parametri ANVUR alla data del 18.12.2012.
Si tratta di una modalità a dir poco anomala, iniqua e discriminatoria nei confronti di molti idonei. Infatti, sul sito dell’Anvur si legge che il raggiungimento delle mediane non preclude in alcun modo il diritto a partecipare alla abilitazione nazionale. Inoltre, l’utilizzo rigido degli stessi indicatori è stato messo in discussione dallo stesso Ministero che in un comunicato ha invitato le commissioni a non considerarli indispensabili per l’abilitazione. Allora, per quale motivo il Senato accademico della Sapienza, con in testa il Rettore Frati, ha deciso di attuare per la prima volta un provvedimento così lesivo che di fatto tende a screditare dei seri professionisti? Come è possibile escludere a priori dalle chiamate chi è già stato decretato idoneo tramite regolare concorso, per giunta utilizzando in modo retroattivo dei parametri poco affidabili per valutare qualità, originalità e indipendenza dei candidati? Misteri della Sapienza! E che facciamo adesso con tutti gli altri idonei che dal 2010 a oggi sono stati già chiamati da diversi Atenei, Sapienza compresa, senza utilizzare questo criterio? Sottoponiamo anche loro ad un’ulteriore valutazione retroattiva? Tra l’altro, in questo modo il Senato accademico della Sapienza ha completamente esautorato e scavalcato anche i Dipartimenti che secondo la recente riforma avrebbero dovuto essere gli organi responsabili del reclutamento.
Sarebbe ora che il mondo scientifico e accademico si svegliasse, sollecitando con forza l’Anvur ad abbandonare la sua casereccia e rigida bibliometria con l’inaffidabile e pericoloso trittico delle mediane fai-da-te, per utilizzare finalmente metodi di valutazione veramente affidabili e internazionalmente riconosciuti.
Nei classici della narrativa gotica-horror, gli spaventosi mostri sfuggiti al controllo dello scienziato pazzo vengono di solito debellati e la storia si conclude con un lieto fine. Sarà così anche nel caso delle orride creature del dottor Anvur? Speriamo ardentemente di si, altrimenti la ricerca scientifica di base nel nostro paese sarà definitivamente azzerata.
Due osservazioni. Nella formulazione originaria anvur il superamento delle mediane bibliometriche avveniva quando si superava la mediana del numero di prodotti E un’altra fra le rimanenti due: hc-index o citazioni totali. Quindi coerentemente con il giusto ragionamento dell’autore sulle due facce della medaglia, riportato in apertura. Nel documento anvur, inoltre era anche riportato che in sede di applicazioni successive alla prima si sarebbe tenuto conto anche di mediane legate all’impact factor della rivista (e qui quanto meno la differenza fra “nature” e “pizza e fichi” si vede, con tutte le limitazioni dello strumento IF).
Mi sembra di capire che nel tempo l’Anvur ha fatto e disfatto, ha pubblicato liste e comunicati per poi rimangiarseli, ha promesso il ricalcolo delle mediane per i singoli SSD per poi informarci che non era suo compito…insomma di tutto e di più! Col risultato di creare un confusione mai vista prima! E’ difficile districarsi in questa giungla di se, ma, forse, vedremo…Per questi motivi, le commissioni potranno utilizzare criteri diversi per la valutazione: alcune pretenderanno tutti e tre le mediane, altre solo due o magari solo una, altre infine, seguendo le indicazioni del ministero non le considereranno affatto….un risultato che produrrà piogge di ricorsi e rischierà di bloccare tutto il sistema……..
A parte tutto questo, purtroppo, il messaggio che è passato per il momento è questo: se hai queste mediane sei al top, viceversa sei uno sfigato.
Senza parlare dell’impact factor come indicatore di qualità di un giornale, in base a cui il Sun sarebbe meglio del Guardian o del NYT (non voglio fare esempi con giornali italiani, mi sembrano tutti da buttare).
La questione dell’IF è al contempo semplice e complessa. Semplice perché si tratta di un indicatore screditato presso la letteratura scientometrica, a maggior ragione quando si dovesse trattare di reclutamento individuale. Complessa perché come ha spiegato su queste pagine Alessandro Figà Talamanca, buona parte dei ricercatori delle scienze biomediche sono stati educati a pubblicare cercando collocazione, ove possibile, su riviste ad alto IF, sicché oggi non tenere in conto tale peculiarità, per quanto – ripeto – vi possano essere dubbi sull’indicatore, risulta frustrante per molti ricercatori. La morale? Non utilizzare la bibliometria come strumento determinante per il reclutamento.
Vorrei chiarire che nelle Scienze Biologiche, esiste una notevolissima differenza tra il livello delle riviste scientifiche più autorevoli e meno autorevoli. Queste differenze di solito riflettono nel rigore e nella serietà del peer-review, che porta ad accettare solo ricerche approfondite che riportano dati coerenti e originali. Inoltre, gli stessi comitati editoriali delle riviste più autoevoli sono sempre più esigenti e tendono spesso rifiutare un articolo a monte, ovvero senza inviarlo ai referee. Allo stesso tempo, esistono molte riviste più “indulgenti” dove i parametri selettivi sono molto più lassi e di consequenza sono molto più disponbili ad accettare più o meno tutto. Queste differenze si riflettono chiaramente nei valori di IF.
E’ poi vero che esistono oscillazioni nell’IF tra riviste, di ottimo o buon livello, che sono meno indicative in quanto dovute più all’ampiezza del campo di indagine che alla qualità degli articoli pubblicati. Infatti, è risaputo che le riviste dedicate alle ricerche nel campo umano hanno un’audience più ampia, sono di media più lette, più citate e solo per questo hanno un IF maggiore di altre.
Ignorare questa realtà è un gravissimo errore, soprattutto se a farlo è una agenzia che si definisce “di valutazione della ricerca”.
Quello che vedo nella mia (breve) esperienza (in fisica) è che spesso ciò che fa la differenza per pubblicare su riviste “di punta” (Nature, Science…), rispetto a quelle più semplicemente “serie”, non è tanto la qualità dei lavori, e nemmeno l’originalità, ma un’efficace sintesi (with a new twist) di lavori già noti (senza per questo cadere nel plagio, sia chiaro!) o un appello a tematiche di moda. Con questo non voglio ncessariamente sminuire i lavori che escono sulle riviste di punta, ma far notare che l’impact factor deriva anche da precise caratteristiche di quei giornali, che puntano al “broad interest”, con pregi e rischi che ne conseguono. Da quello che leggo nei commenti mi pare anche di capire che la situazione è piuttosto diversa in campi diversi. In definitiva, sono d’accordissimo: gli indicatori bibliometrici hanno una qualche importanza, ma sono più che altro una foglia di fico per mascherare il soffocamento della ricerca. Quello che volevo far notare è che considerare l’impact factor non migliora necessariamente le cose. Lavorare solo per riuscire a infilare qualcosa su Nature, invece che per pubblicare 20 articoli su JP&F, non contribuisce comunque a migliorare la qualità della ricerca.
Scusami, ma per riuscire a “infilare qualcosa su Nature”, come tu dici, a volte non basta una vita! Magari fosse così facile… Invece, per pubblicare molte banalità, o anche stupidaggini su JP&F ci vuole veramente poco…..
Detto questo, io non sono affatto un sostenitore della bibliometria tout court, come si evince dalle critiche espresse nel mio intervento. Credo però che l’IF permetta di capire se alla quantità corrisponde la qualità, specialmente nel mio settore.
Quello che intendo non è certo che pubblicare su Nature sia facile, anzi. Quello che intendo è che non mi sembra che sostituendo al numero di pubblicazioni una misura che dia forte peso all’impact factor si risolva nulla. Dico questo perché 1. ho visto gli effetti di politiche simili in alcuni enti di ricerca olandesi: spingere molte più persone a fare quello che va di moda negli ultimi sei mesi su Nature, dando al contempo una scusa per bloccare la ricerca in certi campi, o per far apparire come “oggettiva” una scelta politica (tutto il mondo è paese, si sa) 2. perché articoli come quelli sul numero di ritrattazioni apparso qui su roars conferma il mio sospetto che, tra i molti ottimi articoli, ce ne siano almeno altrettanti di superficiali se non scorretti.
cari colleghi,
mi scuso per l’intromissione non completamente in tema
qualcuno ha informazioni sul perche’ non siano state
ancora pubblicate le liste dei candidati all’abilitazione con i relativi CV per i vari settori, come previsto dalla legge, neppure per i settori in cui le commissioni sono stabilizzate da mesi?
si tratta dell’operazione “trasparenza”, forse l’unico aspetto veramente positivo di questa procedura, che metterebbe in secondo piano il ruolo delle mediane e riporterebbe finalmente in primo piano pubblicamente i dati di fatto sulla qualita’ della ricerca dei singoli
Marco Vianello
associato di analisi numerica
dip.to di matematica
Universita’ di Padova
La situazione (come sempre grottesca) è questa.
Un’addetta al servizio telefonico del Cineca mi ha confermato 3 giorni fa che il MIUR ha preso la (felicissima) decisione di pubblicare tutti e 184 gli elenchi (o meglio, tutti e 368, visto che c’è quello relativo alla prima fascia e quello relativo alla seconda) solo dopo che saranno scaduti gli ultimi 15 giorni per eventuali ritiri di candidati afferenti al settore concorsuale la cui commissione sarà la centottantaquattresima e ultima a riunirsi per la prima volta e a far pubblicare in rete i suoi criteri di valutazione (solo pubblicati i quali, appunto, partono quegli ultimi 15 giorni).
Peccato che a oggi (che è come dire alla mattina di lunedì 15 aprile) ci siano 32 (dico 32) commissioni che non si sono ancora mai riunite. Esistono dunque ottimi presupposti perché i 368 elenchi compaiano a pochi o pochissimi giorni dal 31 maggio, data entro cui devono chiudere i lavori ed emettere i loro verdetti la maggioranza delle commissioni. Ma magari, con il futuro ritiro di un commissario di alcune di quelle 32 commissioni che costringerebbe a un sorteggio per rimpiazzarlo e sposterebbe ulteriormente in là la data della loro prima riunione, il MIUR ce la può fare ad arrivare a pubblicarli ormai in giugno
Non sono un professore universitario ma un insegnante di liceo (Storia e Filosofia) e ho apprezzato molto l’ottimo articolo del Prof. Patrizio Dimitri!
Sono personalmente davvero terrorizzato dalla eventuale prospettiva che i prossimi governi possano introdurre anche nelle scuole superiori criteri di valutazioni dei docenti così aberranti! La lucida follia che impone il sistema del computo quantitativo in qualsiasi settore del lavoro e dell’esistenza a scapito della qualità, è la premessa assurda ma purtroppo reale di operazioni come queste! L’obiettivo è chiaro: la distruzione dell’istruzione, della ricerca, e della cultura, come dimostrano tra l’altro i tagli continui degli investimenti negli ultimi anni, per ridurre l’Italia nelle condizioni del Burkina Faso. Sono convinto che non sia semplice incopetenza ma un progetto politico che mira a generalizzare l’analfabetismo di ritorno di massa per poter riprodurre all’infinito un ceto politico e dirigente che può sostenersi soltanto sull’ignoranza diffusa e capillare! D’altronde, non siamo forse in una “Kakistocratia”(governo dei peggiori), come con geniale lungimiranza aveva intuito il Prof. Michelangelo Bovero qualche anno fa? La “demeritocrazia” deve essere introdotta in ogni ambito, non solo in politica, così potremo ritornare tranquillamente all’età della pietra e discutere a grugniti con i tanti Neo-Neanderthal che già oggi ci circondano appena si mette il muso fuori di casa!
E’ proprio vero, professor Altieri, questo povero paese alla deriva ormai da anni è in mano ad una vera e propria cachistocrazia, purtroppo lo si verifica in ogni settore…
Tutte le riserve possibili sul metodo delle mediane, ma non dimentichiamo che senza questo nuovo sistema si sarebbe solo riprodotto lo scempio che, negli ultimi 20 anni, è stato perpetrato dalla maggior parte delle commissioni di concorso.
Oggi abbiamo i ruoli universitari saturi di parenti, amanti e gente dal CV imbarazzante.
Domani, boh?
[…] La meritocrazia alla rovescia, ovvero meglio 20 articoli su “Journal of Pizza & Fichi” che … (ROARS). Interessante la citazione del Code of Practice dell’European Mathematical Society (October 2012): “It is irresponsible for institutions or committees assessing individuals for possible promotion or the award of a grant or distinction to base their decisions on automatic responses to bibliometric data”, che va ad aggiungersi ad analoghe dichiarazioni dell’Unione Matematica Italiana e dell’International Mathematical Union (vedi Matematici contro l’uso automatico dei parametri bibliometrici). Purtroppo nel direttivo ANVUR non ci sono matematici e quelli nel comitato consultivo forse non sono stati adeguatamente consultati. […]
Perfettamente d’accordo su dei criteri che evitino clientelismo e nepotismo. Ma pensi veramente che questo sistema ponga un serio freno a tali fenomeni? Visto che gli indicatori bibliometrici dell’Anvur non entrano affatto nel merito di autonomia di ricerca, indipendenza critica e originalità, basterà essere piazzato in uno dei tanti carrozzoni accademici più o meno attrezzati (in relazione al livello del settore) et voilà qualche mediana è facilmente superata. In questo modo, parenti, amanti, pupilli e affini potranno continuare ad avere il loro benefici. Tra l’altr, per certe persone si trovano sempre scappatoie ed escamotage……..
Perfettamente d’accordo su dei criteri che evitino clientelismo e nepotismo. Ma pensi veramente che questo sistema ponga un serio freno a tali fenomeni? Visto che gli indicatori bibliometrici dell’Anvur non entrano affatto nel merito di autonomia di ricerca, indipendenza critica e originalità, basterà essere piazzato in uno dei tanti carrozzoni accademici più o meno attrezzati (in relazione al livello del settore) et voilà qualche mediana è facilmente superata. In questo modo, parenti, amanti, pupilli e affini potranno continuare ad avere il loro benefici. Tra l’altro, per certe persone si trovano sempre scappatoie ed escamotage……..
[…] La meritocrazia alla rovescia, ovvero meglio 20 articoli su “Journal of Pizza & Fichi” che 1… (ROARS). […]
Forse domani niente.
Concordo pienamente con dimitri, tranne sull’apertura all’IF. Ma ammetto di essere fuorviato dalla mia appartenenza ad un settore non bibliometrico, nel quale l’uso della bibliometria sarebbe antiscientifico. E di cio’ se ne e’ data ampia dimostrazione su questo sito e non solo. Ma anche negli altri settori l’IF e’ discusso, come s’e’ ricordato sopra e come mette in luce la letteratura scientometrica. Continuo a riscontrare, con amarezza, che il mostruoso sistema medianico, creato dall’anvur, riscontra consenso in chi pensa di sconfiggere le note degenerazioni nepotistiche. Un po’ come il fascismo trovo’ consenso nei ceti piccolo borghesi che s’illusero di migliorare la loro condizione. Per non parlare dei fenomeni mediatici dei nostri giorni. Suvvia, i figli di e i raccomandati hanno da tempo i migliori canali per pubblicare e delle mediane se ne infischiano. Perche’ le superano alla grande. Sono i poveracci che corrono il rischio, come al solito, di restare al palo, perche’ non hanno corsie preferenziali per pubblicare e fare ricerche. La societa’ italiana e’ tutta familistica, volete che non lo sia l’universita’? Ma combattere questa perversione non ci puo’ spingere ad appoggiare follie come l’anvur e la sua banda medianica.
DAL VERBALE DEL CONCORSO SI PRIMA FASCIA MAT/05 ANALISI MATEMATICA SCUOLA NORMALE SUPERIORE – OTTOBRE 2014
Riguardo al criterio di cui alla lettera B.e) indicatori bibliometrici, la Commissione, considerato che si tratta di metodologie il cui uso non è universalmente riconosciuto in ambito matematico, decide che non ne farà un uso esclusivo né rigidamente aritmetico.
Pertanto gli indici bibliometrici saranno usati, solo riguardo la qualità delle riviste, а complemento del giudizio scientifico sui singoli articoli. La base di dati di riferimento per la comunità matematica, come risulta ad esempio dal documento UMI е dalla VQR per i settori matematici, е’ MathSciNet dell’ American Mathematical Society.
Inoltre, in particolare per quanto riguarda la valutazione della diffusione delle pubblicazioni all’interno della comunità scientifica la Commissione utilizzerà inter alia, come strumento di supporto alla valutazione, i database di citazioni ottenibili presso riconosciute istituzioni internazionali in ambito matematico, precisando che – come raccomandato motivatamente dai massimi organismi internazionali per la ricerca – l’uso di essi non sarà appunto automatico, ma temperato dalla considerazione principalmente dell’autorevolezza e varietà delle citazioni stesse.
La commissione terrà quindi opportunamente conto per gli indici bibliometrici dei limiti e delle criticità evidenziati da importanti società scientifiche internazionali e ritiene che in nessun caso il giudizio su un candidato possa basarsi sulla mera e automatica applicazione di parametri numerici.
[…] La meritocrazia alla rovescia, ovvero meglio 20 articoli su “Journal of Pizza & Fichi” che 1… (ROARS). […]