Un rapido bilancio della riforma dell’Università e qualche possibile intervento correttivo

Testo pubblicato sul Giornale di Diritto Amministrativo 5/2013

parte I

(parte II, parte III)

La campagna elettorale per le elezioni politiche 2013 si è chiusa senza che i contendenti abbiano dedicato particolare attenzione alla questione dell’università e della ricerca, rimasta sostanzialmente assente dal dibattito politico, salvo rare eccezioni. Un fatto che ha dimostrato ancora una volta, purtroppo, la miopia di buona parte della cosiddetta classe politica (e così pure di quella imprenditoriale): quasi che lo stato di sofferenza del sistema dell’università e della ricerca non sia destinato a incidere sugli sviluppi della crisi economica e in generale sulle potenzialità di sviluppo del Paese. L’esito della tornata elettorale è stato, da questo punto di vista, infausto: l’assenza di una solida maggioranza e la conseguente debolezza del futuro esecutivo, se pure si riuscirà a formarlo, non lasciano ben sperare. In un quadro confuso e in continua evoluzione, è lecito supporre che il sistema dell’università e della ricerca rimarrà al fondo dell’agenda politica. Peccato: negli ultimi anni, il nostro Paese è riuscito, checché se ne dica, a mantenere una produttività e un impatto della ricerca rilevanti, in linea con la collocazione dell’Italia fra le grandi nazioni industrializzate.[1] Ci sono però motivi per sospettare che nel prossimo futuro si assisterà non ad un miglioramento di tali dati, ma anzi ad un loro peggioramento. Ciò per due ordini di motivi: a causa dell’esiguità dei finanziamenti riservati al sistema dell’università e della ricerca[2] e, d’altro canto, a causa dell’impatto della l. 240/2010 su strutture già estenuate. La mancanza di un adeguato monitoraggio dell’impatto di una regolazione tanto complessa,[3] fondata su innumerevoli provvedimenti attuativi è da questo punto di vista un ulteriore elemento di allarme, poiché rende difficili eventuali interventi di manutenzione. La l. 240/2010 è infatti un provvedimento iper-regolante, nel quale tuttavia ad ambiti iperregolati si alternano altri spazi non o sotto-regolati, che contribuiscono a fare dell’imponente costruzione della Riforma un edificio per più versi pericolante. Edificio che, nonostante la sua giovane età, necessita a parere di chi scrive di mirati e urgenti interventi correttivi.

In questa sede mi limiterò a toccare brevemente, fra i tanti, solo tre punti critici, fra di loro strettamente connessi: valutazione, reclutamento, struttura e compiti dell’Agenzia Nazionale di Valutazione. Si tratta dunque di un’analisi solo parziale, che per ragioni di spazio trascura altri, pur rilevanti aspetti dell’attuale congiuntura, quali AVA, l’accreditamento dei corsi e dei dottorati e così via.

1. Valutazione della ricerca.

A seguito della Riforma del 2010, l’Italia si è in parte allineata al modello britannico (RAE/REF), conformemente a quanto operato negli anni passati dal CIVR, al quale spettò di condurre la VTR, il primo esercizio italiano di valutazione. Il recente esercizio di valutazione (denominato VQR), è stato avviato sulla base del DPR 76/2010 (art. 3) e del DM 17/2011. La procedura adottata è affine a quella britannica: si è richiesto alle strutture oggetto di valutazione di inviare un numero limitato di prodotti riconducibili agli anni 2004-2010, perché essi siano sottoposti a valutazione.[4] Si è dunque partiti dall’assunto che i ricercatori avrebbero selezionato e inviato ai revisori i loro migliori prodotti di ricerca. La valutazione aggregata dei prodotti di ricerca inviati dai componenti le strutture (tipicamente: dipartimenti, atenei), dovrebbe consentire un’efficiente allocazione dei fondi di ricerca, capace di premiare le strutture che ospitano i ricercatori “qualitativamente migliori”. Non solo: il sistema è congegnato per favorire le strutture dotate di una maggiore capacità di attrazione. Infatti, se un ricercatore particolarmente produttivo dovesse abbandonare la sua struttura d’origine per trasferirsi in un’altra, egli porterebbe con sé, a mo’ di dote, la propria produzione, aumentando le chances che la struttura che lo ospiterà ottenga un miglioramento della propria valutazione complessiva e dunque una maggiore quota di finanziamento premiale. Tale meccanismo può per certi versi apparire iniquo, specie quando la produzione di un ricercatore si è avvantaggiata delle strutture e dei fondi di ricerca messi a disposizione dalla struttura d’origine, destinata alla fin fine a rimanere a bocca asciutta, ma esso è stato preso a prestito tal quale dal RAE/REF: traspare qui l’idea, per anni sottesa a molte elaborazioni teoriche della valutazione della ricerca, che sia la competizione (e non la cooperazione) a favorire in quantità e qualità la ricerca stessa.

L’Italia, si è detto tante volte, è un Paese che arriva tardivamente alla audit culture, e larga parte dell’accademia è del tutto digiuna di valutazione: del resto, nella stragrande maggioranza dei casi gli stessi valutatori non risultano essersi occupati scientificamente di valutazione prima d’ora. Il che comporta il rischio, che si dovrebbe assolutamente evitare, di commettere errori nel disegno delle procedure di valutazione e di trascurare il dibattito scientifico internazionale, che su questa materia è estremamente vivace e ricco di spunti, trasformandoci da Paese latecomer in Paese di retroguardia.

L’esercizio di valutazione nazionale da poco concluso presenta aspetti critici relativi sia alle procedure adottate, che al rapporto costi-benefici atteso. Per quanto concerne le procedure, si è voluto ricorrere a una pluralità di strumenti, differenziati a seconda delle aree disciplinari, raggruppate a loro volta in blocchi suscettibili o meno di valutazione bibliometrica: aree e settori bibliometrici e non bibliometrici. Per i primi si è fatto ricorso a parametri di valutazione quantitativi, fondati su indici citazionali e classifiche di riviste composte su base bibliometrica, integrati solo in casi particolari dalla revisione dei pari. Per i secondi, si è adottata la peer review, eventualmente integrata da classifiche di riviste di maggiore o minore «eccellenza», composte frettolosamente e in modo non trasparente da una pluralità di attori, in un contesto quasi totalmente non procedimentalizzato e non verificabile.

Non è questa la sede dove ricordare le numerose obiezioni di carattere tecnico che sono state sollevate intorno alla VQR. Basterà ricordare sinteticamente quanto segue: nonostante si sia scelto un approccio analogo a quello del RAE/REF, fondato sull’invio di pochi prodotti selezionati dai ricercatori, si è comunque deciso di ricorrere in molti casi all’analisi bibliometrica, benché sia noto a tutti coloro che abbiano una minima competenza del campo, che la bibliometria può fornire misure di impatto, non immediatamente traducibili in valutazioni qualitative.[5] Avrebbe avuto senso ricorrere all’analisi bibliometrica, se l’esercizio di valutazione si fosse svolto «a tappeto», cercando di coprire una quota molto significativa della produzione scientifica. Al contrario, si è deciso – per diverse aree disciplinari – di costruire un RAE/REF all’italiana, ma in versione bibliometrica, il che non pare avere molto senso. Infatti, la scelta dell’HEFCE, responsabile della valutazione della ricerca nel Regno Unito, di procedere all’esame di pochi prodotti selezionati unicamente attraverso la peer review è motivata non solo dalla non sufficiente robustezza degli strumenti bibliometrici e dei dati a disposizione,[6] ma anche dall’obiettivo di disincentivare i comportamenti opportunistici (e talvolta perfino abusivi) che tipicamente si accompagnano all’analisi bibliometrica: ossia di evitare che i ricercatori privilegino la quantità (sia essa relativa al numero di prodotti, o al loro impatto citazionale) a discapito della qualità.[7] Del resto, è ben noto che alcuni ambiti di ricerca, a prescindere dalla loro rilevanza sono di per sé meno forieri di citazioni, a causa della tendenza a seguire filoni mainstream, oppure della composizione e delle pratiche di ricerca del settore.[8] Inoltre, l’analisi citazionale, al di là di considerazioni specifiche sulla affidabilità, disponibilità e robustezza dei dati, non è in grado di valutare in modo accettabile la ricerca applicata, né di misurare l’impatto non accademico, che pure merita di essere tenuto in conto.[9] Perché dunque fare ricorso all’analisi bibliometrica nel corso di un esercizio che prevede la selezione di un numero limitato di prodotti «di alta qualità» da parte dei ricercatori?

Un’altra anomalia, nel disegno delle procedure della VQR è data dall’adozione di analisi bibliometriche differenziate, modulate diversamente a seconda delle discipline: una scelta sconsigliata dall’HEFCE per gli effetti che potrebbe produrre sul comportamento dei ricercatori.[10] Inoltre, si è scelto di far ricorso a rankings o ratings di riviste, nonostante il dibattito assai vivace al riguardo e il rifiuto, da parte dei responsabili della valutazione di altri paesi (Regno Unito,[11] Australia) di farne uso. Rifiuto che giunge dopo aver sperimentato tali strumenti, e dopo avere riscontrato come essi producano effetti più negativi che positivi.[12] Inoltre, come ho avuto modo di ribadire in altra occasione,[13] classifiche o ratings di riviste costruite su base bibliometrica portano con sé, peggiorati, i difetti propri dell’analisi bibliometrica: esse, infatti, impattano negativamente sulla ricerca inter/transdisciplinare e cristallizzano in classifiche dati citazionali che in realtà sono nei database in continuo movimento, svantaggiando in particolare la produzione scientifica più recente. Con il pretesto di voler orientare i ricercatori verso le migliori sedi di pubblicazione, perché più selettive, e di aumentare la competitività nella comunità scientifica, si finisce in realtà per consolidare lo status quo, inibendo la possibilità del mercato editoriale scientifico di svilupparsi liberamente, a prescindere da ogni considerazione qualitativa.[14] Lo sa bene chi, volendo lanciare una nuova rivista scientifica, si trova costretto ad attendere due anni di pubblicazioni prima di poter avviare le procedure per l’indicizzazione da parte dei database bibliometrici. Due anni durante i quali la sede di pubblicazione ha ovviamente una scarsa capacità di attrazione per i ricercatori interessati ai loro scores citazionali.

Problemi diversi, ma non meno seri, sono emersi con la creazione di liste di riviste, organizzate per fasce di «qualità», per le scienze umane e sociali. L’opacità e la scarsa robustezza delle procedure di definizione delle liste, la mancata sterilizzazione dei conflitti di interesse, il ricorso a sporadiche e non trasparenti consultazioni con soggetti di per sé non legittimati a rappresentare le comunità scientifiche, hanno posto le premesse per l’innesco di conflitti all’interno dell’accademia, destinati ovviamente a sfociare in contenzioso innanzi al giudice amministrativo. Qualcuno, con argomenti maldestramente costruiti e indicativi di una sostanziale mancanza di sensibilità istituzionale, ha reagito dipingendo un quadro in cui azzeccagarbugli perfezionisti e «benaltristi» tenterebbero di opporsi per via giudiziaria ai lodevoli sforzi dell’Agenzia, intenta alla purificazione dell’italica accademia. Eppure, il rischio, magistralmente evidenziato da Sabino Cassese,[15] di affidare buona parte della gestione dell’università italiana al giudice amministrativo (in particolare il reclutamento, di cui si dirà oltre), avrebbe potuto essere evitato con un diverso, meno frettoloso e più accorto disegno delle procedure, magari fondato sulle esperienze, ormai decennali, già vissute in altri Paesi: la valutazione italiana ha a disposizione un enorme quantità di materiale, di carattere teorico e pratico, per edificare un proprio ben costruito sistema. Averne dato una lettura nella migliore delle ipotesi solo superficiale, è stato un errore destinato, in assenza di tempestive correzioni, a produrre le sue conseguenze per gli anni a venire.

Infine, conviene esaminare un ultimo aspetto dell’esercizio di valutazione, che ritengo particolarmente importante in quanto esso fa emergere come i difetti strutturali dell’esercizio non siano unicamente da imputare a imperizia o inesperienza. Distanziandosi ancora una volta dal RAE/REF, il DM 17/2011 (art. 8.4) prevede l’assegnazione di punteggi negativi ai prodotti sottoposti a valutazione: -0,5 punti per ogni prodotto mancante rispetto al numero atteso, -1 per ogni prodotto giudicato inammissibile, -2 per ogni prodotto ritenuto frutto di plagio o frode. Va da sé che i ricercatori che si macchiano di plagio o frode debbano essere puniti, e del resto essi sono passibili di provvedimenti disciplinari, al di là di ogni altra considerazione di ambito penale. Così pure è fuor di dubbio che chi presenta prodotti inammissibili non giova alla sua struttura di appartenenza e neppure al sistema italiano della ricerca. Tuttavia, va ricordato che la VQR è stata pensata per valutare le strutture e per consentire una corretta allocazione dei fondi: l’attribuzione di punteggi negativi, che sarebbero forse meritati qualora si trattasse di valutazioni individuali, è priva di senso nel quadro di un esercizio di valutazione aggregata e contribuisce solo a rendere meno decifrabili i dati finali. Non a caso, il REF non prevede punteggi negativi, e affida addirittura alle strutture la selezione dei ricercatori che parteciperanno all’esercizio. Al contrario, la VQR concerne tutti i ricercatori italiani, sicché attribuendo valutazioni negative, si possono determinare effetti iniqui. Ad esempio, un docente inattivo (-1,5) è in grado di neutralizzare la metà della produzione di un docente «eccellente» (3), penalizzando l’intera struttura di appartenenza, che viene sanzionata per una sorta di responsabilità collettiva. Responsabilità del tutto immeritata, se si tiene conto del fatto che un docente universitario che adempie agli obblighi didattici non è in alcun modo sanzionabile se non produce ricerca, fatti salvi i disincentivi previsti dalla l.240/2010.[16] Né le strutture sono in alcun modo in grado di disfarsi di inattivi o parzialmente attivi: l’esito dell’assegnazione di punteggi negativi sarà di indurre i ricercatori più produttivi a far firmare i propri lavori anche agli inattivi, pur di salvare la struttura di appartenenza.

In realtà gli esercizi di valutazione hanno la funzione di distribuire le risorse pubbliche presso le strutture che meglio sono in grado di farle fruttare. Idealmente, si assume che università e enti di ricerca dispongano delle risorse essenziali per il funzionamento e che risorse aggiuntive, finalizzate a incrementare una produzione di qualità, siano appunto assegnate tramite tale esercizio. In Italia le cose non funzionano così. La l. 1/2009 (art. 2) e la l. 240/2010 (art. 5 c. 1) fanno riferimento a meccanismi premiali nella distribuzione delle risorse pubbliche sulla base di criteri definiti ex ante. In quest’ottica la VQR dovrebbe essere funzionale alla ripartizione di una quota del FFO definita come premiale, che per il 2012 è stata fissata dal DM 71/2012 in 910.000.000 €, pari al 13% del totale delle risorse disponibili. In realtà, l’ammontare complessivo dell’FFO è stato radicalmente eroso dalle politiche di tagli degli ultimi anni, sicché la quota premiale è tale solo di nome. Molti atenei cominciano a trovarsi pericolosamente vicini alla soglia del dissesto finanziario, specie nel Sud d’Italia, sicché partecipare alla distribuzione dei fondi premiali non è più funzionale alla promozione della ricerca, bensì alla mera sopravvivenza delle strutture. Pertanto, l’attribuzione di punteggi negativi non servirà tanto a non allocare risorse aggiuntive a favore di strutture presso le quali albergano ricercatori scadenti, quanto ad accelerare la chiusura di strutture, colpendo indistintamente ricercatori buoni e cattivi. Si potrebbe ribattere che i ricercatori di qualità potrebbero trasferirsi altrove: non è così. Tutto ciò, è bene ricordarlo, avviene infatti in un quadro in cui la mobilità dei ricercatori verso altre sedi è ostacolato dalla esiguità dei fondi disponibili, dai vincoli imposti al turnover del personale delle università, da un sistema di calcolo di costo delle unità di personale che rende estremamente oneroso reclutare ricercatori provenienti da altre sedi.

In questo senso, la VQR si rivela essere non tanto una procedura premiale, fondata su incentivi, quanto punitiva, perché basata essenzialmente su disincentivi: non è un caso che – all’avvio della VQR – il suo responsabile abbia dichiarato al quotidiano La Repubblica, che essa sarebbe servita a chiudere alcune sedi e a determinare una riduzione sostanziale dei corsi di dottorato.[17] Alla base di tutto ciò, non è difficile riconoscere un certo tipo di narrazione ideologica, ampiamente diffusa negli ultimi anni fra gli organi di informazione, e cavalcata da soggetti disinformati e forse talora non del tutto disinteressati. Tale narrazione postula, in sintesi, che in Italia vi sono troppi corsi, troppi atenei, che si eroga troppa higher education, che il sistema nel suo complesso costa troppo e – infine – che esso è in molti casi improduttivo e corrotto. Buona parte di queste informazioni, benché ripetute fin troppo spesso, non sono veritiere. Il numero di atenei per abitante è inferiore a quello della Spagna, del Regno Unito, dei Paesi Bassi, della Francia e degli Stati Uniti.[18] Il numero di corsi di laurea per abitante è largamente inferiore a quello della Germania e del Regno Unito.[19] La spesa per università in percentuale sul P.I.L. ci vede trentaduesimi su trentasette Paesi considerati dall’OCSE, ed anche il rapporto fra studenti e docenti e fra ricercatori accademici e occupati ci vede agli ultimi posti.[20] Taluni hanno tentato di dimostrare lo scarso rendimento del sistema universitario italiano segnalando i piazzamenti «non eccellenti» degli atenei del Paese nelle principali classifiche internazionali: costoro ignorano in realtà i dettagli della costruzione di tali classifiche, i loro conclamati difetti e la loro sostanziale inattendibilità per formulare effettivi giudizi di qualità, testimoniata da abbondante letteratura scientifica internazionale e dallo studio pilota dell’UE per la creazione di U-Multirank.[21]

Negli ultimi anni, insomma, l’università italiana è stata oggetto di una rappresentazione distorta, rispetto alla quale sono stati funzionali un certo numero di casi scandalosi, relativi in primo luogo a procedure concorsuali non trasparenti. Si tratta di fenomeni gravi, che non possono e non devono essere sottovalutati, ma che purtroppo, anziché indurre un’attenta riflessione volta a prevenirli attraverso un accurato intervento sulle regole, fondato su trasparenza e rendicontabilità, sono serviti in primo luogo a propagandare una rappresentazione irrealistica della ricerca italiana, da porre a giustificazione per tagli del finanziamento che non hanno eguali fra i principali paesi europei.

In questo quadro si è inserito il dibattito sulla definizione di criteri «oggettivi» per la valutazione della ricerca e dei singoli ricercatori, che consentano di evitare una peer review concepita come foriera di corruttele, nepotismo accademico e non. Di qui la nascita di una sorta di feticismo dei numeri, quale rimedio ai mali dell’università italiana:[22] in realtà, è la sfiducia che parte dell’accademia nutre verso sé stessa ad aver orientato le scelte dell’Agenzia Nazionale verso una numerologia approssimativa, concepita come salvifica. D’altra parte, in numerosi settori e aree disciplinari, l’adozione di sistemi di valutazione quantitativa è stata accolta con letizia da parti dell’accademia, quasi fosse una clava da utilizzare contro ricercatori non mainstream, o comunque percepiti come marginali. E’ questo un fenomeno già descritto da Alessandro Figà Talamanca in un suo paper del 2000, a proposito di un conflitto generazionale nell’ambito dei ricercatori di area biomedica: «In realtà l’invocazione dell’Impact Factor (IF) nella valutazione della ricerca scientifica in medicina, è legata ad un conflitto, che potremmo dire generazionale, che ha attraversato negli ultimi venti anni queste discipline. La generazione di ricercatori reclutata intorno agli anni ottanta ha cercato di utilizzare l’IF per affermarsi contro il potere della generazione reclutata negli anni sessanta e settanta. Questi “giovani” studiosi erano e sono in cerca di argomenti per dimostrare che le loro ricerche, pubblicate in inglese su riviste internazionali, sono più valide delle ricerche di bottega prodotte all’ombra di una cattedra universitaria italiana e pubblicate, al solo scopo di far numero nei concorsi, su riviste controllate dal “direttore di cattedra”. Non potevano certo appellarsi alla migliore qualità dei loro risultati, perché i loro interlocutori non erano in grado di valutare seriamente la qualità di risultati che esulavano dai loro interessi e dalle loro competenze. Erano quindi costretti a ricorrere ad argomenti estrinseci, come la “qualità” delle riviste sulle quali pubblicavano e quindi l’IF».[23] Il risultato di tale scontro, fu di consolidare il ricorso all’IF come parametro di valutazione, ancor oggi difeso in area biomedica; eppure il trasferimento di valore dal contenitore (rivista) al contenuto (articolo) si basa su un’assunzione che si è dimostrata infondata e per di più è ben noto come l’IF possa essere facilmente gonfiato.[24] Come scriveva Figà Talamanca, «la realtà attuale è che l’arma dell’IF negli ultimi anni è stata imbracciata anche da chi non rappresenta “il nuovo”. Come abbiamo visto ci vuol poco, dopo tutto, per capire che la presunta obiettività dell’IF può essere piegata alle esigenze del potere accademico, tanto quanto i generici aggettivi che compaiono nelle relazioni dei concorsi universitari. Al tempo stesso l’uso di questo strumento oscura la necessità di costruire una comunità scientifica in grado di valutare con competenza la ricerca scientifica, senza ridursi a strumenti numerologici». In realtà, i sistemi di valutazione dovrebbero mirare a una valutazione il più possibile attendibile (perché ben costruita anche sotto il profilo procedimentale) delle strutture e dei singoli: se tali sistemi divengono strumentali a conflitti fra scuole, generazioni, gruppi di potere consolidati o emergenti che siano, si rischia di distorcere la loro funzione, di minarne la credibilità e di generare conseguenze negative per tutto il sistema. Le procedure di valutazione sono strumenti delicati, che andrebbero tarati con la pazienza di un orologiaio e la terzietà di un giudice esperto. Purtroppo, finora così non è stato. Inoltre, gli errori di progettazione della VQR si sono trasferiti, in forma aggravata, nell’ambito del reclutamento, affaticando ulteriormente il corpo già gravemente provato del paziente: un sistema universitario la cui sopravvivenza fra quelli dei paesi più avanzati pare ogni giorno più a rischio.

Tornando all’esercizio nazionale di valutazione, conviene aggiungere qualche ulteriore considerazione. In primo luogo, vi sono buone ragioni per dubitare che l’esercizio sia in grado di fornire risultati utili a un’efficace ripartizione delle risorse: stando ad una analisi condotta da Abramo e altri, i picchi di produttività nell’università italiana sono dispersi in modo uniforme, sicché è possibile che – visto il modo in cui è organizzato il sistema universitario italiano – i dati della VQR non consentano un’ottimale allocazione dei fondi: in altri termini, di notte tutti i gatti sono grigi, e la dispersione della performance all’interno delle strutture fa sì che non sia possibile selezionare strutture specialmente meritevoli a scapito di altre: In the Italian university system there is a flattening of the average level of performance of universities, due to the high concentration of performance of researchers within each university.[25] Occorrerà attendere gli esiti della VQR per verificare se le previsioni di Abramo sono corrette. In ogni caso, esse non possono che risultare allarmanti se si considera il costo dell’esercizio nazionale di valutazione. Il RAE/REF è considerato uno degli esercizi di valutazione più costosi in assoluto (circa 100 milioni di sterline)[26] ed è lecito presumere che una stima dei costi complessivi della VQR, incluso il costo opportunità connesso allo svolgimento della peer review, non sia inferiore a tale cifra.[27] Il che dovrebbe indurre qualche riflessione su come procedere in futuro per esercizi nazionali di valutazione, tanto più che il costo dell’esercizio, perché esso possa essere considerato ragionevole ed efficiente, non dovrebbe superare l’1 % dell’insieme dei fondi che saranno allocati sulla base dell’esercizio medesimo.[28]

Al fine di monitorare lo sviluppo della ricerca italiana, di verificare la presenza di eventuali sacche di inefficienza e/o di sofferenza, onde poter approntare rapidamente politiche correttive, si potrebbe immaginare di procedere – con costi piuttosto contenuti – ad analisi bibliometriche, di carattere non solo citazionale[29] – della produzione scientifica nazionale, con cadenza annuale. Un monitoraggio di tal genere, fondato anche sui dati della costituenda ANPRePS,[30] consentirebbe al decisore politico di avere sempre a disposizione dati freschi, utili alla definizione delle policies e al monitoraggio costante dei loro effetti. D’altro canto, non è detto che il nostro Paese debba continuare a imitare le esperienze britanniche, peraltro oggetto di vivace discussione nello stesso Regno Unito. Due punti in particolare possono essere sollevati: in primo luogo, si potrebbe pensare a un diverso modello per assicurare il finanziamento della ricerca. Per esempio ci si potrebbe ispirare all’esperienza statunitense, immaginando che lo Stato assicuri le attività di funzionamento ordinario e la didattica (valutata da un’agenzia ad hoc), limitando il finanziamento alla ricerca unicamente a progetti, questi soli oggetto di valutazione. E’ un modello che presenta vantaggi rilevanti in termini di costi e snellezza del sistema, anche se pone comunque alcuni problemi. In primo luogo, la trasformazione degli scienziati in compilatori di bandi, a danno della qualità e della quantità della ricerca medesima. In secondo luogo, i finanziamenti a progetto, se concentrati su progetti di vasta entità, tendono a danneggiare la ricerca di base e ad uccidere la ricerca curiosity driven, che non solo è dominante nell’ambito delle scienze umane, ma ha una funzione essenziale per il progresso delle scienze dure. Infine vi è il rischio che il sistema favorisca il cosiddetto effetto S. Matteo[31] allocando la stragrande maggioranza dei fondi a favore di poche università e trasformando le altre in mere teaching universities. Cosa dalla quale possono conseguire effetti non positivi, relativi non solo al pluralismo e alla ricchezza della ricerca ma anche alla qualità della formazione impartita. Si potrebbero dunque pensare rimedi e correttivi, quali per esempio la concessione di finanziamenti “a pioggia” destinati a ricercatori qualificati o la previsione di un certo numero, ragionevolmente ampio, di grants di ridotte dimensioni, al fine di mantenere viva e diffusa la ricerca in tutta la sua varietà e su tutto il territorio nazionale, pur evitando sprechi e dispersione dei finanziamenti.

Da ultimo, vale la pena ricordare che lo stesso modello di promozione della qualità della ricerca attraverso misure che favoriscano la competizione, in particolare fra strutture, è da qualche tempo messo in discussione. Le università e gli enti pubblici di ricerca non sono imprese che erogano servizi in competizione nel mercato, e se anche tale mercato fosse da un momento all’altro reso possibile, è lecito dubitare del fatto che il complesso del sistema di ricerca e formazione ne beneficerebbe: basti pensare agli effetti di polarizzazione territoriale che ne deriverebbero, a favore degli atenei e dei centri di ricerca più grandi e di maggior tradizione, con il risultato di impoverire alcune zone del paese, verosimilmente già in sofferenza per altre cause. Sono, queste, considerazioni che coinvolgono una riflessione più ampia sul ruolo della formazione terziaria e della ricerca, sull’impatto che esse hanno sullo sviluppo (non solo economico) del Paese, e così via. Non è questa la sede dove affrontare questo complesso tema. Mi limito però a segnalare come il governo francese abbia recentemente sollecitato un rapporto sulla ricerca e sulla formazione terziaria, da utilizzare come punto di partenza per il ridisegno e la razionalizzazione del sistema francese dell’università e della ricerca. Nel testo si sollecita l’abbandono del paradigma della competizione per sostituirlo con quello della cooperazione. Infatti, secondo gli estensori del rapporto, la cooperazione dans la recherche, [..] permet d’éviter les doublons, et de combiner à l’inverse les efforts dans les directions les plus pertinentes ; elle permet aussi de rapprocher les disciplines, ce qui constitue souvent le meilleur moyen de provoquer des découvertes de rupture. Dans l’enseignement supérieur, elle permet d’organiser un parcours plus cohérent pour les étudiants, et d’assurer avec moins de difficultés le maintien des matières les plus rares.[32]E’ bene che l’Italia, giunta ultima a occuparsi di valutazione, osservi con attenzione quanto accade oltrefrontiera, per verificare se e quali spunti possono essere colti dalle esperienze altrui.

[SEGUE]


[1] l’Italia si colloca al settimo posto al mondo per impatto citazionale (1996-2011)  e all’ottavo per produzione di articoli (2007) secondo le elaborazioni SCImago su dati Scopus (http://www.scimagojr.com/).

[2] I dati OCSE relativi al 2009 vedono l’Italia trentaduesima su trentasette Paesi considerati quanto a rapporto fra spesa per università e PIL.

[3] Al caso in questione pare si attaglino perfettamente le osservazioni di CASSESE (2013). In generale sul problema del monitoraggio, cfr. DE BENEDETTO, MARTELLI, RANGONE (2011), p. 86 ss.

[4] Il numero massimo è di norma pari a 6 per ciascun ricercatore degli enti pubblici di ricerca,  pari a 3 per i docenti universitari.

[5] Sul punto, basti citare BACCINI (2010), p. 37 ss.; VINKLER (2010), p. 197: impact may be approximated by the “echo” of the information published.

[6] HEFCE Report (2009), p. 3: Bibliometrics are not sufficiently robust at this stage to be used formulaically or to replace expert review in the REF. However there is considerable scope for citation information to be used to inform expert review.

[7] HEFCE Annex G (2009), p. 149; 151: Citations measure impact on the academic community; this is only one aspect of quality, whereas the RAE results represent a rounded view of quality. A proposito di comportamenti opportunistici e abusivi, mi permetto di rinviare, per bibliografia, al mio BANFI (2012).

[8] ZITT (2005), p. 40

[9] HEFCE Annex G (2009), p. 149.

[10] HEFCE Annex G (2009), p. 151: If bibliometrics were to be used in different ways across sub-panels, this could influence institutional decisions about where to submit members of staff, or their decisions about which types of outputs to submit to different panels (for example, selecting on the basis of citations for some panels, and the implication that this could favour older papers or disadvantage early career researchers).

[11] Sul sito del REF 2014 si legge: No sub-panel will make any use of journal impact factors, rankings, lists or the perceived standing of publishers in assessing the quality of research outputs. An underpinning principle of the REF is that all types of research and all forms of research outputs across all disciplines shall be assessed on a fair and equal basis. Cfr. http://www.ref.ac.uk/faq/researchoutputsref2/

[12] Cfr. COOPER, POLETTI (2011).

[13] BANFI (2013).

[14] WILLMOTT (2011), BREMBS, MUNAFÒ (2013).

[15] CASSESE (2013).2.

[16] Art. 6 c. 14.

[17] La Repubblica del 4.2.2012, intervista di S. Fiori a S. Benedetto.

[18] REGINI (2009), p. 22.

[19] REGINI (2009), p. 25.

[20] OCSE (2012).

[21] VAN VUGHT, ZIEGELE (2011).

[22] Cfr. BANFI, DE NICOLAO (2013).

[23] FIGÁ TALAMANCA (2000).

[24] Cfr. ad es. BREMBS, MUNAFÒ (2013), LOZANO, LARIVIÈRE, GINGRAS (2012); BACCINI (2010), p. 173 ss.; COLQUHOUN (2003); SEGLEN (1997).

[25] ABRAMO, CICERO, D’ANGELO (2012), p. 165.

[26] HICKS (2010), p. 34.

[27] SIRILLI (2012).

[28] MARTIN (2011).

[29] Al fine di estendere il monitoraggio anche ai settori delle scienze umane e sociali, si può pensare di ricorrere a una molteplicità di parametri, che includano, oltre al mero computo dei prodotti pubblicati, la library catalog analysis, liste di riviste scientifiche etc.

[30] L’anagrafe nazionale delle pubblicazioni scientifiche.

[31] VINKLER (2010), p. 99 ss.

[32] LE DÉAUT (2013), p. 5.

Print Friendly, PDF & Email

4 Commenti

  1. Abbandono del paradigma della competizione per sostituirlo con quello della cooperazione.

    Mi ricorda la versione che hanno insegnato a me della storia della formica e della cicala: alla fine la formica fa entrare la cicala e cantano beatamente al calduccio.

    Ok sono d’accordo. L’importante e’ che la cicala non ne approfitti per sbattere fuori di casa la formica,
    e far entrare invece i suoi parenti, gli Arcimboldi Immanicati.

    • naturalmente, si tratta di pensare bene come fare. Non che sia semplice, beninteso. Ma le semplicità seguite finora non mi piacciono tanto. Probabilmente si può fare di meglio.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.