IL CUN boccia l’ANVUR sui criteri prescelti per dar seguito all’innovazione del Bonus ricercatori e PA regalataci dalla legge di stabilità lo scorso dicembre, su impulso della Presidenza del Consiglio dei Ministri. Nel contestare gli aspetti operativi di dettaglio del provvedimento ANVUR, il CUN si produce finalmente in una nota critica di fondo che avrebbe dovuto essere oggetto di reazioni meno blande per tempo.

Oggi si rileva, infatti,

“come le soluzioni accolte per dare attuazione a quanto previsto in merito al finanziamento delle attività base di ricerca, dalla legge di Bilancio per il 2017, riflettano la scelta politica di centralizzare il procedimento per l’erogazione del finanziamento ivi previsto, sacrificando, in termini che questo Consesso reputa non condivisibili, lo spazio d’intervento lasciato agli Atenei i quali, per consuetudine e competenza, rappresentano il soggetto d’elezione per governare tale tipologia d’intervento“.

Ieri si rilevava, in modo molto più sommesso:

Riguardo allo stanziamento di 45 milioni di euro destinati alla ricerca libera, previsto nello stesso articolo 41 ai commi 1-8, il CUN vede con favore che si finanzino le attività di ricerca liberamente svolte dai ricercatori, soprattutto da quelli più giovani, e che si introducano misure di compensazione destinate a sostenere la ricerca di coloro che sono rimasti esclusi dai finanziamenti di progetti presentati su bandi competitivi. Tuttavia la procedura di assegnazione di questo finanziamento obbedisce ancora una volta a una logica centralistica e appare lenta e farraginosa. Questo Consesso ritiene che una più efficace procedura potrebbe essere quella di far confluire tale stanziamento sul fondo di finanziamento ordinario degli atenei in proporzione al numero dei potenziali destinatari, e vincolando le Università a destinarlo al finanziamento della ricerca liberamente proposta.

Una misura che per l’ennesima volta ha finito per calpestare il valore costituzionalmente protetto dell’autonomia accademica costringe oggi a imbracciare il microscopio per contestare nel merito le scelte tecniche operate da ANVUR, nelle cui mani si attua una scelta normativa politicamente e costituzionalmente sbagliata in radice. E lo stesso accade – con conseguenze in quel caso assai più gravi, come i lettori di RORS stanno leggendo – nel caso dei ludi dipartimentali.

Un po’ come quella guarnigione dotata di una vedetta un po’ miope, che, quando il nemico l’ha ormai cinta d’assedio, non ha altra scelta che negoziare la migliore delle rese possibili.

Prot. 20983 del 2677/2017                                                                                             Alla Sig. Ministra

Sen. Valeria FEDELI

Sede

 

Oggetto: Raccomandazione “In merito alla procedura, ai criteri e agli indicatori stabiliti per il finanziamento delle attività base di ricerca, di cui all’art.1, commi 295 ss., legge di Bilancio per il 2017”

 

Adunanza del 25 luglio 2017

IL CONSIGLIO UNIVERSITARIO NAZIONALE

Visto l’articolo 1, commi 295 e seguenti, della legge 11 dicembre 2016, n.232, recante “Bilancio di previsione dello Stato per l’anno finanziario 2017 e bilancio pluriennale per il triennio 2017-2019”, ove si è stabilito uno stanziamento di 45.000.000 di euro l’anno al fine di finanziare le attività base di ricerca dei professori di seconda fascia e dei ricercatori in servizio a tempo pieno presso le Università statali, con un importo individuale del finanziamento pari a 3.000 euro, da assegnarsi in modo da soddisfare il 75% delle domande dei ricercatori e il 25% delle domande dei professori di seconda fascia;

Visto l’Avviso pubblico, approvato con delibera del Consiglio Direttivo dell’Agenzia Nazionale di Valutazione del Sistema Universitario e della Ricerca (ANVUR), n. 87 del 14 giugno 2017, con cui, in attuazione di quanto previsto dall’art.1, commi 295 e seguenti della l. n. 232/2016, si disciplina la procedura e si definiscono i criteri per la formazione dell’elenco dei beneficiari del suddetto finanziamento;

Esprimendo perplessità in merito al modello prescelto dal legislatore per il pur indispensabile finanziamento delle attività base di ricerca e formulando riserve circa la complessità della procedura delineata per individuare i beneficiari di quanto si annuncia come un finanziamento di entità comunque limitata per ognuno di essi, stante la numerosità della platea interessata;

Evidenziando altresì la necessità, per quanto attiene alle condizioni per la fruizione di tali finanziamenti, di esplicitare il limite temporale di utilizzabilità dei fondi da parte dei singoli beneficiati così da evitare comportamenti difformi da parte dei singoli Atenei;

Nel rilevare come le soluzioni accolte per dare attuazione a quanto previsto in merito al finanziamento delle attività base di ricerca, dalla legge di Bilancio per il 2017, riflettano la scelta politica di centralizzare il procedimento per l’erogazione del finanziamento ivi previsto, sacrificando, in termini che questo Consesso reputa non condivisibili, lo spazio d’intervento lasciato agli Atenei i quali, per consuetudine e competenza, rappresentano il soggetto d’elezione per governare tale tipologia d’intervento,

Con riferimento, in special modo, ai criteri e agli indicatori stabiliti per la selezione dei beneficiari:

 

 

OSSERVA

La procedura valutativa delineata allo scopo di individuare, per ogni settore scientifico-disciplinare, i beneficiari del finanziamento si configura come procedura completamente automatica. Scelta della quale pur si comprende la ragione: l’elevato numero dei possibili candidati e i tempi ristretti (dovuti alla cadenza annuale) impediscono di adottare, anche parzialmente, la peer-review. Tuttavia, questo conduce a una valutazione interamente fondata su criteri bibliometrici/quantitativi così trascurando di fatto la complessa articolazione interna dei settori scientifico-disciplinari (SSD). Automatismo che risulta tanto più delicato in quanto si tratta, in questo caso, di valutazioni riferite a singoli e non a strutture, come avviene invece nell’ambito degli esercizi per la Valutazione della Qualità della Ricerca (VQR).

Il che porta a suggerire che le graduatorie, determinate settore per settore, non siano rese pubbliche se non tramite l’indicazione in ordine alfabetico dei beneficiari del nuovo finanziamento per le attività base di ricerca.

In particolare, questo Consesso ritiene meritino di essere segnalati taluni aspetti della procedura valutativa, come definiti nell’Allegato A dell’Avviso pubblico ANVUR, che proprio perché innovativi rispetto ai criteri di valutazione sin qui impiegati e validati necessitano di una verifica puntuale, soprattutto ove si intendesse proporne l’impiego su più vasta scala:

Quanto al numero massimo di prodotti considerati e alla previsione che per ogni SSD sia stabilito un numero massimo di prodotti scelto “con riferimento alla produttività caratteristica del SSD” (pt.2.2. Allegato A) sarebbe opportuno, per ragioni di trasparenza, rendere noti i criteri in base ai quali sono stati determinati tali valori che non in tutti i casi sembrano corrispondere alle valutazioni e alle attese degli afferenti ai settori.

Quanto all’assegnazione dei punteggi pesati (pt.2.4. Allegato A), si segnala quale importante criticità, specie per le aree non bibliometriche, l’impiego di una scala che, distinguendo diverse tipologie di prodotti della ricerca, assegna ai contributi su riviste scientifiche e su libri, ai contributi su riviste di fascia A e alle monografie, rispettivamente, i punteggi 1, 4 e 10. Il criterio quali-quantitativo sotteso, funzionale alla determinazione automatica della graduatoria per la procedura in oggetto, esige un’attenta verifica di compatibilità con le procedure della VQR in peer review, con i criteri adottati nella determinazione delle soglie ai fini dell’ASN (Abilitazione Scientifica Nazionale) e con le relative modalità di esercizio. Il rapporto di 1 a 4 qui instaurato fra contributi su riviste scientifiche e su libri e contributi in riviste di fascia A rappresenta infatti un’innovazione di cui sarebbe necessario, per ragioni di trasparenza, esplicitare le motivazioni. Infine, il punteggio assegnato alle monografie e la limitazione alla presentazione di una sola di esse genera significativi effetti distorsivi in alcuni SSD.

Quanto alle pubblicazioni con autori multipli e ai relativi criteri di valutazione (pt.2.3. Allegato A), si evidenziano le innovazioni introdotte in merito alla numerosità e al posizionamento degli autori, talune delle quali particolarmente significative per le aree bibliometriche dove esistono molto spesso ricerche con molti coautori e sussistono abitudini, peraltro differenti per area e per settore, sull’ordine di firma.

Pur comprendendo l’opportunità di definire in maniera più stringente la authorship di un prodotto, enucleando più chiaramente il contributo di ciascun autore, si ritiene necessario evidenziare alcuni elementi di criticità a cominciare dal fatto che si utilizza una regola ex-post avente per oggetto prodotti della ricerca già pubblicati, senza che gli autori potessero essere a conoscenza che la valutazione di qualità del prodotto sarebbe stata fortemente influenzata anche dal numero dei coautori e dalla posizione di firma di ciascuno di loro.

In primo luogo, anche in questo caso, sarebbe stato opportuno rendere noti i criteri in base ai quali è stato determinato il numero standard di autori, N, superato il quale il punteggio valutativo riportato dal prodotto è pesato in base al numero dei coautori. I valori di N indicati non sembrano infatti riflettere in modo convincente le differenze nel numero medio di autori tra i diversi SSD.

In secondo luogo, non corrisponde all’uso internazionale pesare la qualità di un prodotto della ricerca sulla base della numerosità degli autori. Ad esempio, i principali indicatori bibliometrici (citazioni, indice di Hirsch, etc.), ampiamente usati anche nelle procedure di valutazione italiane (ASN e VQR), non considerano tale parametro. Né corrisponde all’uso internazionale pesare la authorship di un prodotto in base alla posizione della firma. Se infatti è vero che in molti SSD si attribuisce un valore particolare alla prima e ultima firma e al corresponding author (quest’ultimo, invece, non è stato preso in considerazione dalla procedura in esame), è anche vero che le abitudini tra i vari settori sono profondamente diverse e spesso nemmeno codificate, per cui un criterio univoco per i tutti i settori delle aree 3, 5, 6, 7 e 11b può avere effetti ingiustamente penalizzanti. In ogni caso, sarebbe opportuno che il corresponding author sia trattato allo stesso modo del primo e ultimo autore.

In terzo luogo, la formula utilizzata per pesare l’authorship nel caso di un numero di autori che supera il numero standard può generare brusche e ingiustificate variazioni, in particolare quando il numero N è superato di poco. Ad esempio, se N = 4, un articolo in rivista valutato come “eccellente”, se ha 5 autori, allora vale 10 per ciascun autore, mentre, se ha 6 autori, vale 7,7 per il primo e l’ultimo autore e 6,9 per gli altri quattro autori, scendendo così nei fatti dal rango di “eccellente” al rango di “elevato”.

A questo proposito, questo Consesso suggerisce che la formula per pesare il numero dei coautori sia modificata in modo da rendere meno bruschi i salti di punteggio quando il numero dei coautori è di poco superiore al numero standard. Si suggerisce inoltre di incoraggiare presso le comunità scientifiche quelle pratiche di pubblicazione, del resto ormai comuni nelle migliori riviste internazionali, che prevedano di esplicitare ab initio il ruolo di ogni coautore, in modo da poter gradualmente introdurre criteri che premino il contributo degli autori di riferimento.

Si aggiunga che tutto il meccanismo rischia di penalizzare le ricerche multidisciplinari le quali, per loro natura, devono poter contare su un numero maggiore di autori provenienti da diversi settori. Addirittura, in determinati casi il medesimo articolo potrebbe ricevere un punteggio valutativo differente a seconda del SSD cui appartiene il coautore considerato. Al contrario, i bandi per progetti di ricerca nazionali e internazionali o le procedure di selezione per i dottorati innovativi, nei quali ultimi il carattere d’interdisciplinarietà è connotato di qualità, accolgono quali criteri premianti la multidisciplinarità o comunque la capacità di aggregare competenze diversificate.

Tutto ciò rilevato,

IL CONSIGLIO UNIVERSITARIO NAZIONALE

RACCOMANDA

 

un attento riesame dei criteri e delle procedure prescelte per ovviare almeno in parte alle criticità tecniche segnalate e, comunque, suggerisce di utilizzare queste nuove procedure solo in forma sperimentale raccogliendo, in esito alla procedura, i pareri e le osservazioni delle comunità disciplinari interessate ed evitando di introdurre nuovi criteri valutativi ex post.

LA PRESIDENTE

(Prof.ssa Carla Barbati)

https://www.roars.it/online/wp-content/uploads/2017/07/raccomandazionefinanziamentoricercaCUN.pdf

Send to Kindle

60 Commenti

    • Per quanto mi riguarda, un ente centrale che disegna algoritmi quantitativi per fare la classifica nazionale di tutti i ricercatori di tutte le discipline e di tutti gli atenei (per distribuire 3.000 Euro a testa) evoca distopie stalin-orwelliane. Che poi il “premio” (in realtà è come se in un esercito venissero date le cartucce solo al 75% dei soldati semplici e al 25% dei graduati) venga attribuito ai singoli visti come atomi in competizione perpetua tra loro è pure emblematico della distorsione ideologica. Un fondo minimo per la ricerca di base potrebbe essere gestito più ragionevolmente nei dipartimenti e anche condiviso tra colleghi, ove conveniente. L’idea della competizione globale per dividere gli spiccioli rivela la natura ideologica del provvedimento, più “educativo” che altro.

    • Di fronte alla premialità all’italiana, non posso fare a meno di ricordare un racconto di Borges che descrive una macabra gara tra due prigionieri condannati a morte.
      ________________
      Fece venire entrambi e disse: “So già che non potete sopportare la vista l’uno dell’altro, e che da tempo state cercando un’opportunità per farvi fuori. Belle notizie per voi. Prima del tramonto, avrete la possibilità di dimostrare chi di voi è il più bravo. Vi metterò in piedi e vi farò tagliare la gola, poi voi comincerete a correre. Solo Dio sa chi vincerà…”.
      […]
      Con la sciabola un sergente marcò sulla polvere una linea che attraversava la strada. Slegarono i fianchi di Cardoso e di Silveira perché potessero correre più liberamente. Li separava uno spazio di neanche cinque iarde. Posarono il piede sulla linea di partenza. Un paio di ufficiali allora chiesero che non deludessero tutta quella povera gente che contava su di loro, e che aveva scommesso cifre da capogiro.
      […]
      Nolan dette il segnale.
      Il mulatto, gonfio d’orgoglio per tante attenzioni, esagerò in quello che doveva fare aprendo un taglio profondo che correva da orecchio a orecchio; l’uomo di Corrientes invece fece una fessura sottile. Sottili spruzzi di sangue sgorgarono dalle gole degli uomini. Avanzarono solo pochi passi prima di cadere faccia in giù. Cardoso, cadendo, allungò le braccia in avanti.
      Senza accorgersene forse, ma ha vinto lui.
      (J.L. Borges, “L’altro duello”, http://www.sagarana.it/rivista/numero1/intervista.html)

    • La competizione per l’attribuzione di fondi minimali di ricerca è avvilente, e che sia affidata in toto all’ANVUR è una delle tante cose degli ultimi anni che gridano vendetta. Sono però d’accordo con MarcelloGA nel pensare che il principale, se non l’unico, aspetto positivo del provvedimento sia quello di finanziare direttamente i singoli ricercatori, scavalcando le logiche spesso iperlocalistiche della spartizione dei fondi della ricerca di base d’ateneo (quando questi esistono). Non concordo con il CUN, stavolta. A mio avviso sarebbe stato giusto finanziare tutti i ricercatori attivi, a prescindere dal ruolo. E sarebbe stato meglio di come è stato fatto fianziare tutti i RU attivi. Ma senza passare dagli atenei.

    • L’esempio fatto da Giuseppe De Nicolao, delle cartucce, è abbastanza calzante. Secondo me però si avvicina di più alla verità se modificato in questo modo: è come se in un esercito venissero distribuiti i fucili solo al 75% dei soldati, quelli giudicati più abili a sparare, e con una mira migliore.
      Se poi qualche generale alza un timido ditino chiedendo la parola, e molto educatamente chiede: ‘ehm.. ma che compiti assegniamo al 25% senza fucile?’ gli si risponde: ebbene dovranno loro stessi procurarsi il fucile, prendendolo al nemico!’

    • «ebbene dovranno loro stessi procurarsi il fucile, prendendolo al nemico!»
      ______________
      Non è l’unica soluzione immaginabile. Per esempio, in questa scena di “Il nemico alle porte” i soldati mandati all’assalto disarmati si contendono i fucili dei commilitoni feriti a morte. Interessante spunto per MIUR e ANVUR anche i commissari del popolo che ordinano di mitragliare i commilitoni che arretrano.

    • Noi siamo messi PEGGIO dei soldati di Stalingrado: questi ultimi, a differenza di noi, sapevano che la penuria di armi era momentanea, e lo Stato Maggiore si stava dando da fare per produrre in Kazakistan carri T34 e mitragliatrici parabellum a tutto spiano. Infatti qualche mese dopo, i soldati di Stalingrado poterono assistere allo spettacolo dei loro commilitoni che schiacciavano (letteralmente) i tedeschi sotto i cingoli.

      Il paragone potrebbe diventare veritiero se l’ufficiale dell’NKVD
      chiamasse ‘incentivo’ la minaccia di mitragliare chiunque indietreggi….

  1. La questione “finanziamento alla ricerca di base” nasce in modo errato. Chi la ha proposta (gli economisti) la vede come un “incentivo”. In questa ottica si capisce perché si selezionino solo una parte dei ricercatori: un incentivo per essere efficace deve andare solo a una parte dei potenziali riceventi, questo spiega la logica del “miglior 25%o 75%”. In realtà, il punto chiave è che 3.000 euro l’anno non sono un “incentivo” ma semplicemente uno strumento minimo per svolgere il proprio lavoro. Gestire un laboratorio scientifico di un minimo livello con quella cifra è improponibile. Quello che spaventa di questo provvedimento è l’incredibile miopia politica di chi lo ha proposto. Lo stipendio di un docente universitario va dai 50.000 euro in su. Qual è il senso di lasciare alcuni senza i minimi strumenti per svolgere il proprio lavoro? Qui sembra si voglia semplicemente uccidere la possibilità di fare ricerca, soprattutto quella in ambito scientifico che costa di più.

    Sull’algoritmo per determinare la graduatoria di TUTTI i ricercatori italiani in modo automatico non mi esprimo. Le zucchine e le melanzane si comprano “un tanto al chilo”. Le pubblicazioni scientifiche si leggono per valutarle.
    Qualche “genio” ha ideato il 25%-75% e a qualche oscuro esecutore materiale è toccato il compito di scrivere l’algoritmo.

    Chi crede all’esistenza di un algoritmo affidabile per valutare in modo automatico le pubblicazioni potrebbe cadere in modo semplice vittima di mio nonno che vendeva i numeri del lotto previsti tramite i suoi calcoli. L’aspetto impressionante è che i “clienti” in questo caso sono proprio docenti universitari.

    • Un’accademia che subisce in silenzio queste e altre cose, non merita di sopravvivere, perché è già morta.

    • ” Lo stipendio di un docente universitario va dai 50.000 euro in su. Qual è il senso di lasciare alcuni senza i minimi strumenti per svolgere il proprio lavoro? ”

      E’ ESATTAMENTE questo il punto, e la risposta è (unica) EVIDENTEMENTE non ha senso. Mi arrischio però anch’io nella discutibile pratica di tentare di ‘spiegare’ qualcosa di evidente
      (per alcuni è controproducente, ma secondo me a questo punto vale la pena di farlo, non abbiamo nulla da perdere).
      Dunque, un docente costa mediamente PIU’ dello stipendio di 50.000 euro. Costa anche 1) una quota da attribuire allo spazio che occupa in un edificio (gli edifici costano) 2) Una quota da attribuire al mobilio (un po’ minore del costo del mobilio, visto che quando se ne va il mobilio viene usato da qualcun’altro)
      3) l’elettricità che consuma, per la luce, per il condizionatore e …. per il computer.
      Quello che viene fatto è quindi questo: la lista precedente viene tagliata, e non figurano più A) i computer B) gli attrezzi da laboratorio C) Il materiale di consumo del laboratorio (singolare è il fatto che la carta delle stampanti è esclusa… e rimane nella prima lista) D) le spese per missioni.
      Per la seconda lista viene detto: non ve la diamo, dovete procurarvela voi, e solo i più bravi l’avranno.

      Ora la cosa davvero paradossale in questo ragionamento è che esso mima un meccanismo ‘premiale’: se qualcuno si fa trarre in inganno da questa mimica, ne esce addirittura convinto…
      Se invece va oltre la mimica si rende condo che il meccanismo non è affatto premiale, perché NON E’ un incentivo…
      Dov’è infatti l’incentivo? L’unica cosa in entrambe le liste che
      va al lavoratore è lo stipendio (detratte le tasse), che però fa parte della prima lista, le cose che non sono toccate…
      Ma se tu al lavoratore tocchi i mezzi di produzione (che non sono suoi) semplicemente… non lo tocchi. Puoi toccarlo attraverso i mezzi di produzione solo nella misura in cui al lavoratore PIACE ciò che fa, cioè se gli piace passare le notti a fare esperimenti in laboratorio. In questo caso (e solo in questo)
      minacciarlo di togliergli gli attrezzi da laboratorio può essere efficace per indurlo a fare quello che vuoi tu. Ma se il lavoratore è un lavativo, che vuole solo prendersi lo stipendio e poi starsene a casa o andare con gli amici a fare scampagnate in bicicletta, o al limite fare un secondo lavoro (magari fregiandosi del titolo di professore)… e bè a questo ‘lavoratore’ un simile ordinamento stà bene alla grande, anzi: è una vera pacchia.
      Gli si fornisce persino la scusa per andarsene in giro in bicicletta : ”che ci vado a fare in laboratorio? Non c’è nulla…”.
      Invece il lavoratore a cui piace il suo lavoro viene colpito..

      Quindi è EVIDENTE che una cosa del genere non solo non
      è un incentivo ma è addirittura un meccanismo ANTI-meritocratico (cioè non solo non premia i migliori ma premia i PEGGIORI).
      Non so se mi sono spiegato o servono altre spiegazioni.

      Oppure la VERA spiegazione che serve è questa: ‘lo sappiamo
      che è assurdo, ma questa è la realtà in cui dobbiamo vivere, quindi anziché girare il coltello nella piaga dai piuttosto un’idea su come possiamo convivere con queste leggi orwelliane”

      Devo far questo?

  2. Anch’io trovo il documento CUN debole e parzialmente contradditorio.
    In soldoni, il Bonus è un surrogato del PRIN (che chissà se verra mai ribandito). Ed è giusto che ci sia un finanziamento esterno all’università di appartenenza. Se io sono bravissimo ma inviso ai miei colleghi in sede…
    Le “perplessità” non riguardano anche il numero di “premiati”? Possibile che *esattamente* il 75% dei ricercatori (fra chi fa domanda, poi) siano “bravi”? Ovviamente il CUN non può cambiare la legge, ma non può tacere il fatto che, ammesso e non concesso che ci siano i “bravi” e in “non bravi”, la percentuale non può essere determinata a priori.
    Praticamente nulla contro l’automaticità dei criteri. Le modifiche proposte sono minimali e non scalfiscono l’insensatezza della valutazione automatica, e di questi criteri in particolare.
    Per finire, la proposta di non rendere pubbliche le graduatorie… A ridajje, nessuna trasparenza, nessuna possibilità di controllo della correttezza dei dati. Capisco che non è piacevole essere nel CUN al giorno d’oggi, ma mi pare proprio un documento molto debole e parzialmente contradditorio.

    • PS: comunque complimenti a ROARS che continua a lavorare per tutti anche ad agosto, e che riesce a “raccattare” un congruo numero di commenti. Forse saremo in pochi, ma almeno non è il silenzio assoluto!

  3. @GDN:
    invece io sono ottimista. Penso che una volta toccato il fondo, l’accademia italiana saprà risalire la china. Certo, i danni che sono stati commessi in questi anni sono devastanti, perché fino ad adesso si è sopravvissuti grazie ai tesoretti accumulati da ciascun gruppo di ricerca gli anni precedenti. Ora che gli strumenti diventano obsoleti e si risparmia sulla manutenzione, i costi per rimettere tutto in ordine saranno enormi.

    @Monterone:
    mi riferisco al lordo, ovvero al costo annuo per la comunità, che paga i nostri stipendi.
    http://sauron.uniroma1.it/pdf/prontuario_docenti_2012.pdf
    In modo molto approssimativo, ogni mille euro che noi prendiamo ogni mese costano ai cittadini circa il doppio. In ogni caso, il mio punto è che è assurdo spendere 50.000 euro per un docente e poi non dargli gli strumenti per lavorare. Sarebbe come se al personale delle pulizie gli si dicesse: “carissimi, lo stipendio da 1.000 euro è garantito, ma non abbiamo i soldi per i materiali per le pulizie (100 euro). Potete scrivere dei progetti nel vostro tempo lavorativo, e solo i più bravi avranno i materiali per lavorare.” Sembra incredibile che la maggior parte dei colleghi continui a non rendersi conto che al timone dell’università c’è un marinaio ubriaco il quale non ha la più pallida idea di quale sia la rotta (Ludi dipartimentali, taglio finanziamenti, 75-25% etc etc.) e continuino a fare come se nulla fosse.

    • Nella descrizione Non riconosco né profumo né carrozza né giannini. Che da universitari aka ex rettori …

  4. “In secondo luogo non corrisponde all’uso internazionale pesare la qualità di un prodotto della ricerca sulla base della numerosità degli autori”.
    Una questione è dare un valore ad un articolo, un’altra questione è, stabilito il valore di un articolo, decidere che pecentuale di tale valore assegnare a un autore per aver contribuito a creare tale articolo.

    Assegnargli il valore per intero come si è fatto nella vqr e nell’asn è profondamente scorretto. Anche gli altri autori avranno in qualche modo contribuito a raggiungere tale valore o no?
    Trovo sacrosanto che il numero degli autori inizi a contare qualcosa (anche se io lo avrei fatto contare molto di più) e citare asn e vqr come se tutto quello che è stato fatto nell’asn e vqr fosse giusto è semplicemente ridicolo! Idem non è che chi ha creato l’indice Hirsch fosse per forza una persona di buon senso e giusta… e mi risulta che spesso all’estero il numero degli autori si guardi…
    Se una ditta mi imbianca la casa io la pago per il lavoro fatto e se ci hanno lavorato due imbianchini o tre non.me ne importa nulla..
    La difesa del “non contare per nulla il numero degli autori” secondo me spesso è fatta da gruppi potenti che in questi anni hanno coautorato e citato a incrocio a tutta birra….

    • Varie cose andrebbero fatte per rendere gli indici più plausibili:
      1) contare il numero di autori (cioè fatto X il valore del lavoro, e n il numero di autori, il contributo di ciascun autore è X/n, se il contributo è da ritenersi paritario)
      2) Se le citazioni devono contare, bisogna perlomeno escludere le autocitazioni.
      3) l’h-index va eliminato. Al limite lo si può sostituire col G-index (fatte salve 1 e 2).

  5. @ Elena. La storia degli imbianchini e degli autori nelle due ultime frasi mi sembra contraddittoria. … cmq se un gruppo di imbianchini fa un lavoro fra loro ci sara sicuramente il maestro e il discepolo che avranno compensi molto diversi

  6. Per Ernest: cerco di spiegarmi meglio: supponi di avere due case di ugual dimensioni; una me la imbianca l’imbianchino Beppe da solo in 4 giorni; l’altra me la imbiancano due imbianchini Carlo e Alberto, ciascuno lavorandoci due giorni. Entrambe le case sono state imbiancate bene. Io darei a Beppe 1000 euro, a Carlo 500 e a Alberto 500. Non mi passerebbe minimamente per la testa di dare a tutti e tre 1000 euro.

    • Sono parzialmente d’accordo … io darei 700 a carlo e 300 ad Alberto … maestro e discepolo
      Se il colore il pennello giusto e i ritocchi finali li ha fatti Carlo…

    • X Ernest: la sua obiezione non inficia il ragionamento INCONTROVERTIBILE di Elena (io non sono un economista, ma ho letto Ricardo, e dopo questa lettura ho profondo rispetto per la scienza economica classica, e per la connessa TEORIA DEL VALORE).
      Infatti il punto è che la somma deve comunque fare 1000. Dare 700 a uno e 300 all’altro significa valutare il lavoro del primo sette terzi il lavoro dell’altro. E infatti nessuno dice, per tornare al nostro argomento, che in un lavoro in coppia con un primo autore si debba dividere per due il valore del lavoro: questa è, naturalmente, la situazione in cui il contributo è da ritenersi paritario (cioè, banalmente, in mancanza di informazioni che dicano il contrario..)

    • Non è così semplice. Se io scrivo insieme a un endocrinologo un lavoro sulla secrezione ormonale dell’ormome della crescita (GH) in cui, da ingegnere, metto a punto l’algoritmo che calcola la secrezione istantanea ghiandolare a partire dai dati di concentrazione plasmatica, cosa vale questo articolo e come ci dividiamo il bottino? Magari, ha un certo valore per l’endocrinologia ed un valore diverso per il filtraggio di segnali numerici (a seconda che l’algoritmo sia più o meno innovativo). Magari non è così innovativo dal punto di vista dei filtri digitali, ma l’adattamento di queste tecniche in un nuovo settore potrebbe avere un grande impatto nella cura di certe patologie. Forse, come ingegnere avevo ideato degli algoritmi innovativi in passato e adesso questa “applicazione” dimostra la necessità e l’impatto (anche nelle scienze della vita) delle tecniche precedentemente proposte. Un’osservazione che può condurre ad una rivalutazione anche degli altri lavori strettamente tecnici, che potevano sembrare virtuosismi tecnici fini a se stessi. Io sono d’accordo sul fatto che non dividere per il numero degli autori sia assurdo, ma ho forti dubbi che introdurre una qualche divisione sia una soluzione soddisfacente. La valutazione è un’operazione in cui i dati (pubblicazioni, citazioni, grant, collaborazioni) sono come indizi da mettere insieme per ricostruire un quadro completo del candidato. Un po’ come uno storico che usa dati statistici, documenti storici e così via, ma deve andare oltre.

    • Il problema è che qualunque valutazione, anche apparentemente non ‘numerica’, per il fatto stesso di produrre una graduatoria,
      implica che una trasformazione è stata applicata, da un insieme di dati NON ORDINATI (precisazione, non per Giuseppe De Nicolao, per gli altri: non ordinati significa che presi due dati non è definito un criterio unico per dire che uno è maggiore dell’altro, ed è questo in effetti, secondo me, che genera l’impressione di ‘non calcolabilità’ del valore) ad un insieme ordinato.
      C’è poco da fare, qualunque commissione, applica una ‘trasformazione’ del genere, che non esprime poi nel rapporto finale in formule matematiche, ma a parole (che in linea di principio è la stessa cosa: le formule non sono altro che neologismi sintetici.. ). In linea di principio è la stessa cosa, ma in realtà i commissari usano giudizi verbali che solo molto alla lontana danno un idea della trasformazione che hanno usato. Probabilmente non la conoscono neppure loro, ha agito l’intuito.
      Ma la trasformazione c’è necessariamente: per confrontare due coppie di numeri (le coppie non sono ordinate, almeno non in maniera immediatamente significativa) sarà stata usata una norma (per gli altri: una norma è un modo per ottenere la ‘trasformazione’ sottostante). Alla fine succede che la ‘trasformazione’, lungi dal non esistere, CAMBIA SEMPRE in modo imprevedibile a seconda della commissione. Alla fine si tratta di scegliere fra la possibilità di abusi di potere da parte di una commissione e la possibilità di abusi di altro tipo (indici fatti male).
      Secondo me però, è più facile costruire bene gli indici che non
      impedire gli abusi di potere/arbitrarietà del giudizio, architettando un qualche sistema di nomina dei commissari.

      Sull’interdisciplinarità: si tratta di scegliere quali riviste applicative includere in un settore teorico. Un contributo teorico
      modesto, ma che applicato in un determinato settore risulta interessante, è un grosso contributo per certe riviste. O anche se è il caso di creare un settore nuovo.
      Quindi almeno in linea di principio gli indici sono sempre costruibili. Ciò che viene evitato è che una commissione li crei e li cambi sempre a prorpio piacimento.

  7. Cara Elena e Caro Ernest

    Scusate se mi intrometto nella vostra conversazione. Il problema secondo me non è di dividere per n autori, per n-1 o per il quadrato di n. L’errore sta nella pretesa di valutare la ricerca in modo automatico. Attenzione: è assolutamente necessario valutare la ricerca, ma il problema è l’automatismo e le pratiche che nulla hanno a che vedere con il buonsenso prima che con la scienza. I docenti universitari, che forse dovrebbero avere un senso critico “superiore alla mediana” dovrebbero rendersi conto che la questione non è proporre un algoritmo o un altro, ma piuttosto l’adozione di pratiche che in nessun paese avanzato sarebbero prese in considerazione. Ma per che cosa poi?? Stiamo parlando di distribuire 3.000 euro a ricercatore, una cifra per la quale nessuno che ha un’idea anche vaga di cosa sia la ricerca si sognerebbe mai di stilare una “classifica globale” dei docenti.

    • In realtà il semplice principio in base al quale la ricerca è valutabile a partire da quantificazioni come la classe della rivista,
      il numero di citazioni, il numero di autori etc. NON significa
      ‘valutazione automatica’. O almeno è automatica su un insieme di numeri i quali però non sono ottenuti a loro volta ‘automaticamente’. La pubblicazione non è ‘automatica’: dipende dal giudizio dei revisori e dell’editore. Quindi, automatica è solo la parte finale del processo e il problema, a mio avviso, è che se questa parte finale viene fatta male (io non metto minimamente in discussione la parte iniziale, quella ‘non-automatica’) ebbene
      il risultato finale può venire ENORMEMENTE storpiato, al punto da inficiare completamente gli obbiettivi che ci si riproponeva di raggiungere con l’introduzione dell”automatismo’. PEGGIO: se (e noi non ci facciamo mancare neppure questa) il procedimento per stabilire il migliore automatismo (ripeto: fatta salva la prima parte, essenziale, e non automatica) cambia in continuazione lasciando l’impressione che esso non convergerà mai su un insieme di ‘indici’ condivisi.

    • Come si fa a non applaudire a una utopia.
      A parte che io e elena abbiamo convenuto che il lavoro era fatto bene… poi il resto viene dopo. Un mix di valutazione peer e di automatismi ben studiato è necessario. Certo tremila euro è una vergogna che grida vendetta … ma quella è una altra storia

  8. Sarò un vecchio barone, ma davvero non comprendo perché si dia per scontato che sia “assolutamente necessario valutare la ricerca”, senza che si sappia a che scopo, come e, prima ancora, cosa significhi “valutare”. Mi rendo conto, tuttavia, che oggi non si possa aprire bocca in materia di università, senza avere prima formulato la professione di fede nei confronti dell’importanza della valutazione. È una precondizione per avere diritto di manifestazione del pensiero e per sperare di poter essere ascoltati. Dunque: meglio tacere

    • Perchè, non è una valutazione quando si sceglie chi far passare da associato ad ordinario?

  9. Pare evidente che per valutare l’attività di ricerca non possano essere usati algoritmi quantitativi e molti prima di me in questa e in molte altre discussioni aperte da Roars ne hanno ben spiegato le ragioni. Sinteticamente, un lavoro per essere valutato deve essere letto e tutte le comparazioni, tra prodotti diversi, tra settori scientifici diversi, tra lavori a una firma o a più firme, con relative classifiche sfidano il buon senso. Ciò premesso, per quanto riguarda il finanziamento della ricerca il punto vero, come notato da molti e ben evidenziato da da Marco Bella, è che fanno apparire come premio ciò che dovrebbe essere garantito a tutti. Tenendo presente però che non tutti sono uguali: i ricercatori di area sanitaria o quelli di aree scientifiche dovrebbero ricevere ben altre somme per svolgere il loro lavoro (non appartengo ad alcuna delle due). In ogni caso l’attenzione che viene data al tema ha distratto molti dai veri problemi che attraversa l’Università: il calo del numero di iscritti (vedi Roars di oggi in risposta al Sole24ore) e, cosa di cui non si parla, gli abbandoni dopo il primo anno. Mi spiego. Ci si affanna per pubblicare tanto per prendere il minimo vitale per fare un po’ di ricerca e poco ci si preoccupa di (o spesso poco ti resta per) investire personalmente sulla qualità dell’insegnamento e ciò a maggior ragione se sei un giovane ricercatore, magari precario (con ASN e VQR in agguato). Tale comportamento è rafforzato dal fatto che, con l’eccezione di qualche ateneo (Padova di recente ha previsto qualcosa), la valutazione dei docenti non è presa in considerazione per politiche di incentivo. Ne consegue uno scarso interesse verso il capitale umano del nostro paese, che invece andrebbe valorizzato con un impegno ben diverso dalle formali ore di didattica frontale. La riduzione del numero di docenti degli ultimi anni, nell’euforia della valutazione quantitativa della ricerca, ha senz’altro peggiorato la qualità della didattica.

  10. Tutte queste pseudo riforme dell’Università e della Ricerca, se cercano una razionalità è solo per giustificare dei tagli facendo allo stesso tempo ricadere la colpa del conseguente degrado sugli operatori stessi del sistema Università/Ricerca. L’Università peggiora? Colpa dei docenti, occorre una riforma (tagli). I tagli producono un peggioramento, ma i politicanti riescono sempre a dare la colpa ai docenti. Il che è facile, perché è comunque una comunità che compete: se un posto lo vince uno lo perde un’altro. Esistono al suo interno ‘gruppi’ che si aiutano nella competizione falsandola, e escludendo rigorosamente chiunque sta fuori dal gruppo. Gli ‘outsider’ hanno vita difficile nel sistema: il sistema ‘baronale’ non è costruito dai baroni (molti dei quali sarebbero felici di non esserlo) ma dai loro ‘sottoposti’, chiamiamoli così, oppure chiamiamoli ‘allievi’, i quali accettano la protezione offertagli dal sistema baronale, e anzi la vogliono, la esigono pure in certi casi. E’ molto più comodo fare carriera così… Escluderei dal discorso i precari, per i quali la sicurezza è una esigenza reale. O perlomeno, se non lo è è peggio perché significa che il sistema è oramai diventato classista.
    Ma anche loro alla fine accettano la protezione, ogni volta che gli viene offerta, perpetuando il sistema. In conclusione, è molto facile in un sistema del genere additare colpe e disfunzioni, quindi è facile anche attribuire il degrado a queste colpe e disfunzioni (e non ai tagli). Segue quindi un’altra riforma, altri tagli e così via..

    • “queste pseudo riforme dell’Università e della Ricerca, se cercano una razionalità è solo per giustificare dei tagli”
      ______________
      Per capire quanto i tagli fossero giustificati, basta ricordare che una metà dei docenti non superava le mediane. Gianni Trovati era stato pronto a segnalarlo sul Sole 24 Ore: “Pubblicazioni «insufficienti» per un professore ogni due”.


      _____________
      Nessuno aveva spiegato a Trovati che, per definizione, la mediana divide una popolazione in due parti uguali …

    • Come la fai facile!
      Non quando bisogna superare due mediane su tre. Non quando gli indicatori sono interi e si deve distinguere tra minore e minoreouguale!
      NOn si possono semplificare così le aberrazioni anvuriane!!!

  11. “Perché, non è una valutazione quando si sceglie chi far passare da associato ad ordinario?”.
    ——
    Certo, è una valutazione, prevista per legge, che ha una finalità ben precisa e un oggetto determinato. Non così la VQR, utilizzata all’occorrenza per le finalità più disparate e illegittime, e basata sullo squallore dell’anonimato. I commissari dei concorsi, se non altro, si assumono la paternità e la responsabilità dei giudizi che esprimono

    • L’anonimato non è squallido, anzi, è eminentemente scientifico:
      come ho già scritto altrove, la situazione perfetta nel sistema della peer review è che TUTTI siano anonimi, revisori e autori.
      Per gli autori spesso l’anonimato non c’è (per motivi pratici più che altro) ma quando c’è si raggiunge la situazione perfetta di dover giudicare uno scritto per ciò che c’è scritto e non per chi l’ha scritto. Questa è scienza: una cosa è vera o è falsa non perché lo dico io, ma perché E’ vera o E’ falsa.
      Quindi, seppure imperfetto, l’anonimato, che è fondamentale nel sistema della peer-review, è tutt’altro che squallido.

  12. Molte cose non sono né vere né false, ma opinabili. L’anonimato del giudicante, oltre che squallido, è incivile, essendo in contrasto con il principio del l’imparzialità. Se non conosco il mio giudice, non posso ricusarlo, sono un suddito soggetto all’altrui arbitrio.

    • Uffa, non tutti le discipline sono uguali, e non è detto che i metodi per scegliere cosa pubblicare debbano essere uguali per tutti.
      Ma sfatiamo una volta per tutte il mito che la peer review funziona in base all’arbitrio del referee anonimo. Il referee è quasi sempre anonimo, ma l’editor si assume la responsabilità della pubblicazione e di verificare che il rapporto del referee sia corretto e in buona fede. Ovvio che tuti possoo commettere errori, anche Einstein ogni tanto si sbagliava,ma il sistema funziona proprio perchè ci sono dei responsabili.
      Quante volte un editor mi ha scritto commentando il rapporto del referee, a volte non tenednolo in nessuna considerazione e chiedendo ad un altro!

    • ..Bè Aristotele, che non era un fesso, non sarebbe d’accordo con l’affermazione ‘esistono cose né vere né false’..
      Mi sto contraddicendo trincerandomi dietro l’autorità di un Aristotele ma francamente non me la sento di rimettere in discussione il principio del terzo escluso.
      Comunque, i revisori anonimi sono ricusabili: si può fare il cosiddetto ‘rebuttal’ all’editore (l’editore è sempre noto).

    • A ben pensarci possono esistere affermazioni ambigue, vere o false a seconda di come le si interpreta. Tuttavia tolta ogni ambiguità esse sono o vere o false, c’è poco da fare.
      Possono essere indecidibili, cioè vere ma indimostrabili,
      (e cioè non si può sapere se sono vere o false). Ma sempre O vere O false. (che un esperto di logica intervenga!)

  13. Verosimile non vero … io resto dell idea che un mix di automatismo semplice, tipo :minimo x lavori negli ultimi y anni, e poi una commissione che valuta tutto il cv con criteri prestabiliti è il metodo giusto.

    • Ciò che una commissione dovrebbe valutare secondo me è ciò che resta senza valutazione. Mi spiego: se due candidati (ma il discorso può estendersi anche alla VQR eventualmente, nella misura in cui dipartimenti competono per un ‘premio’) dicevo se due candidati hanno lo stesso punteggio derivante da una ‘valutazione automatica’ dei titoli, e se è essenziale che uno dei due candidati venga escluso (per la limitatezza della risorsa ‘premio’) allora entra in gioco la commissione: tutti i commissari dovranno LEGGERE attentamente UN lavoro (indicato da ciascun candidato) e assegnare un punteggio. Dovranno fare cioè una recensione del lavoro, assegnando anche un punteggio. E così via fino a determinare il vincitore.
      Questo potrebbe essere il ‘giusto mix’ (è solo una idea…).

    • Un’altra possibilità è questa: si fa SOLO la VQR dei dipartimenti e Atenei e istituti di ricerca vari (scegliendo gli indici bene però).
      I concorsi invece sono aboliti: i dipartimenti assumono direttamente, dichiarano aperta una ‘position’ di full o associate professor (io ripristinerei anche gli assistant professors), indicando le competenze richieste. Alla fine il dipartimento assumerà chi vuole.
      Però affinché questo non degeneri in un orgia di nepotismi e favoritismi, è necessario che ci sia una VQR il più possibile ‘oggettiva’ e automatica.
      Questo meccanismo deve però prevedere anche la CHIUSURA del dipartimento, qualora la VQR dia valori troppo bassi, o almeno la penalizzazione negli stipendi DI TUTTI. Altrimenti non c’è nessun incentivo ad assumere i migliori, cioè gente che possa portare gli indici verso su.

      Per quest’ultimo motivo io preferisco la prima ipotesi, quella che ho scritto immediatamente sopra.

  14. Le proposte di Francesco1 hanno ovviamente quale presupposto la soppressione delle scienze umane e sociali, oltre che lo stravolgimento dei princìpi cistituzionali sul pubblico impiego. Ammirevole la fede cieca nell’oggettività della valutazione e nella Verità vs la falsità.

    • No, il problema va discusso con i colleghi di scienze umane.
      Chiaramente le mie proposte sono parziali, relative al mondo cosiddetto ‘scientifico-esatto’. Sono d’accordo che l”’esattezza” è più un ideale che non una realtà, però l’obbiettivo di ottenere ‘buone approssimazioni’ lo riterrei realistico.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.