Il problema del reclutamento universitario è ormai in piena ebollizione. Questo  è sostanzialmente bloccato dal 2008 e pochi giorni fa l’Agenzia Nazionale per la Valutazione del sistema Universitario (Anvur) ha pubblicato la delibera che indica come procedere alle abilitazioni, passaggio fondamentale per i successivi concorsi. Ne è nato un vespaio, e l’Associazione Italiana dei Costituzionalisti, guidata da Valerio Onida, ha subito annunciato l’intenzione di impugnare una parte del decreto.Il motivo è semplice: sono stati introdotti dei criteri retroattivi, ovvero oggi si hanno dei criteri per “giudicare” dei lavori scientifici scritti una decina d’anni fa senza che all’epoca il ricercatore avesse la possibilità di sapere quale fosse la strategia migliore per pubblicare il suo lavoro. Alcuni dicono che sia un ricorso pretestuoso portato avanti dai “vecchi baroni” per difendere il loro potere dal nuovo che avanza. A noi sembra invece un ricorso del tutto ragionevole per ripristinare la legalità violata Infatti, un altro supposto covo di baroni, l’Unione Matematica Italiana, ha redatto un documento sottolineando che la modalità introdotta dal’Anvur per giudicare il lavoro dei ricercatori “… non è accettabile ed è stata condannata dalla comunità scientifica internazionale, al punto da essere ora bandita in molti paesi scientificamente all’avanguardia…”.

Il problema di fondo di tutta la questione non è solo il decreto delle abilitazioni: è molto più importante e vitale perché riguarda l’indipendenza e l’autonomia della ricerca dal potere politico.  L’ Anvur non è un’Autorità indipendente come l’Autorità della concorrenza (questo era il disegno originario che purtroppo non è stato approvato dal parlamento), ma è parte della pubblica amministrazione – come, per esempio, l’Agenzia delle entrate nei confronti del Ministero dell’economia: la sua indipendenza viene dunque esercitata nel quadro della politica del MIUR. L’Anvur è stata organizzata sotto il Ministero Gelmini e si occupa di tantissimi compiti che vanno dalla valutazione dell’intero sistema universitario e della ricerca a quello dei singoli docenti. Come ricorda il rettore del politecnico di Milano, Giovanni Azzone, “in nessuna parte del mondo a una stessa Agenzia di valutazione vengono affidati congiuntamente tanti compiti….(che) appaiono del tutto incompatibili con le risorse disponibili e con l’autonomia degli Atenei.”

Questa grandissima quantità di compiti e competenze fa dell’Anvur il vero artefice della politica universitaria e della ricerca con un ruolo che va molto al di là dell’elaborazione di semplici linee di indirizzo generali ma che invece gli permettono di intervenire in maniera molto invasiva sul soggetto stesso della ricerca e sull’autonomia dell’università. L’Anvur è dunque lo strumento attraverso il quale la politica può condizionare in maniera mai tentata prima sia la politica universitaria che la natura stessa della ricerca. Visto il delicatissimo ruolo dell’agenzia bisogna chiedersi come questa sia stata strutturata e come questa si muova rispetto alla comunità scientifica.

L’Anvur ha un consiglio direttivo di nomina politica: è stata istituita da quell’emblema della meritocrazia all’italiana che fu il ministro Gelmini e da quel coacervo di cervelli che ancora occupa i ruoli chiave del ministero. L’Anvur ha a sua volta nominato, tramite delle procedure per nulla trasparenti, i presidenti dei gruppi d’esperti di valutazione che a loro volta hanno nominato, attraverso altre procedure opache, i membri dei gruppi d’esperti di valutazione. Dunque tutta la procedura di disegno dell’architettura dell’agenzia non solo non è trasparente ma è piuttosto top-down. Il problema che bisogna porsi da un punto di vista politico è se una tale struttura, nominata da un governo che (per fortuna nostra) non esiste più, possa continuare il suo operato senza soluzione di continuità. Questo è il problema politico di fondo che sta velocemente emergendo in tutta chiarezza in questi giorni.

Un esempio di uno dei motivi di grandissima preoccupazione dell’operato di questa agenzia, è il problema della classificazione delle riviste scientifiche. Secondo l’Anvur un lavoro scientifico di un ricercatore sarà valutato più o meno bene a seconda della rivista in cui è stato pubblicato. E chi decide quali sono le riviste ottime, buone o pessime? L’Anvur stesso utilizzando dunque un metodo che non si ritrova in nessun’altra agenzia di valutazione al mondo. Dunque un’agenzia di nomina politica ha il potere di stabilire quale sia la ricerca “migliore” e quale la “peggiore”. Questa situazione non è accettabile ed è evitata in tutto globo terraqueo. Come ha scritto Antonio Banfi, ricorda però la situazione che in URSS ebbe come massimo caso il tristemente famoso biologo Lysenko, che portò avanti una visione ideologica della biologia basata sull’idea che l’ereditarietà dei caratteri sia influenza da fattori ambientali. Questa teoria, ostile alla genetica mendeliana e priva di ogni base scientifica, piaceva tanto a Stalin e alla nomenclatura sovietica, tanto che vari scienziati sovietici che vi si opposero furono incriminati e condannati a morte in quanto nemici del popolo. Oltre i matematici che hanno preso posizione in maniera molto chiara e netta, nel nostro piccolo i casi di polemica, sono tanti e per il momento hanno riguardato soprattutto le scienze umane, come la sociologia  e l’economia: i lysenkini nostrani. Chi non se n’è preoccupato finora lo farà nel prossimo futuro appena vedrà la conseguenza di scelte scellerate sulla propria carriera.

E’ necessario dunque che la forze politiche mettano all’ordine del giorno di ripensare completamente al ruolo dell’Anvur, facendone una agenzia indipendente ed autonoma in grado di discutere le sue scelte in maniera trasparente con la comunità scientifica.

(pubblicato su il Fatto Quotidiano)

 

ps.  Il CRS organizza il 5 luglio alle 14.15 una giornata di studi dedicata alla costruzione di proposte per l’università che vogliamo. Un programma per il futuro governo di centrosinistra sull’università, da condividere con le tante persone che in questi mesi hanno animato il lavoro del gruppo CRS per l’Università. per leggere tutti gli articoli sul tema clicca qui

Send to Kindle

27 Commenti

  1. Mi pare evidente il tentativo di alimentare la confusione per cercare di paralizzare un processo in corso.

    Commento solo tre punti toccati in questo articolo:

    1. Non è l’anvur che (top-down) decide quali sono le riviste buone e quali sono quelle cattive. Queste liste vengono chieste alle società scientifiche dei vari settori. Alcune di queste società non sono in grado o non vogliono dire esplicitamente cosa vale e cosa no.

    2. La classificazione delle riviste, per l’abilitazione e per le commissioni, vale solo per i settori non bibliometrici. Il settore matematica, di cui l’UMI fa parte, è un settore bibliometrico. Basta leggere il documento dell’UMI per capire che queste persone sono infastidite dal non poter mettere in commissione persone che non producono nulla (cosa sempre successa fino ad oggi) e quindi ritengono che ci vorrebbe una commissione per decidere chi sta in commissione. E così via con ricorsione all’infinito, che piace tanto ai matematici. L’UMI fa finta di non capire che anvur non sta, almeno in questa fase, valutando i ricercatori, ma solo stabilendo delle soglie minime di decenza per l’accesso alle progressioni di carriera e alle commissioni di abilitazione.

    3. L’azione dei costituzionalisti è ridicola agli occhi di chiunque faccia e pubblica scienza. La qualità di una rivista non si può decidere a priori. E’ la qualità dei contributi e il riconoscimento che essi ricevono che fa, a posteriori, la qualità della rivista.

    • 1. sulle classifiche delle riviste si e’ scritto molto qui su roars. Non vorrei ripetermi e dunque rimando a https://www.roars.it/online/?p=4846. Noto (di nuovo) che in nessun paese al mondo si attua una valutazione sulla base di classifiche di riviste. autocitandomi (https://www.roars.it/online/?p=6944) In Australia avevano lavorato dal 2008 al 2010 per classificare le riviste scientifiche, ma nel 2011 hanno abbandonato questa tecnica riconoscendone i potenziali danni. L’Anvur, ignorando il precedente australiano, ha classificato le riviste in meno di tre mesi, con risultati affrettati e talora palesemente assurdi.https://www.roars.it/online/?p=6024

      2. Il documento dell’UMI ridice cose che hanno detto

      [1] http://www.nature.com/news/specials/metrics/index.html
      [2] Institut de France, Académie des Sciences, Du Bon Usage de la Bibliometrie pour l’Évaluation Individuelle des Chercheurs, 17 January 2011 (http://www.academie-sciences.fr/activite/rapport/avis170111gb.pdf – english version)
      [3] European Science Foundation, European Peer Review Guide, Integrating Policies and Practices for Coherent Procedures, March 2011 (http://www.esf.org/activities/mo-fora/peer-review.html)
      [4] European Science Foundation, Survey Analysis Report on Peer Review Practices, March 2011 (http://www.esf.org/activities/mo-fora/peer-review.html)
      [5] Peer review in scientific publications, Science and Technology Committee, House of Commons, UK, 18 July 2011 (http://www.publications.parliament.uk/pa/cm201012/cmselect/cmsctech/856/85602.htm)
      [6] Peer review, A guide for researchers, Research Information Network, UK, March 2010 (http://www.rin.ac.uk/our-work/communicating-and-disseminating-research/peer-review-guide- researchers)
      [7] Swedish Research Council, Quality Assessment in Peer Review, 5 November 2009 (www.cm.se/webbshop_vr/pdfer/2011_01L.pdf)
      Download as PDF

      vedi https://www.roars.it/online/?p=9644

      A me sembra che l’UMI capisca benissimo cosa fa e non fa l’Anvur.

      3. Affermare a che l’azione dei costituzionalisti sia “ridicola agli occhi di chiunque faccia e pubblica scienza” significa tacciare il prof.Onida di non fare scienza il che mi sembra davvero troppo.

    • Roc: “1. Non è l’anvur che (top-down) decide quali sono le riviste buone e quali sono quelle cattive. Queste liste vengono chieste alle società scientifiche dei vari settori. Alcune di queste società non sono in grado o non vogliono dire esplicitamente cosa vale e cosa no.”
      ————————–
      Le cose non stanno così. L’allegato B del Decreto 7 giugno 2012 n. 76 recita:

      “2. Per ciascun settore concorsuale di cui al numero 1 l’ANVUR, anche avvalendosi dei gruppi di esperti della Valutazione della Qualità della Ricerca (VQR) e delle società scientifiche nazionali, effettua una suddivisione delle riviste su cui hanno pubblicato gli studiosi italiani in tre classi di merito”
      http://attiministeriali.miur.it/anno-2012/giugno/dm-07062012.aspx

      È chiaro che la decisione spetta all’ANVUR che può *anche* avvalersi dei GEV (nominati da ANVUR) e, per ultimo, delle società scientifiche. La precedente esperienza della VQR suggerisce che saranno i GEV ad avere un ruolo decisivo.

      =========================
      Roc: “2. Basta leggere il documento dell’UMI per capire che queste persone sono infastidite dal non poter mettere in commissione persone che non producono nulla (cosa sempre successa fino ad oggi) e quindi ritengono che ci vorrebbe una commissione per decidere chi sta in commissione. E così via con ricorsione all’infinito, che piace tanto ai matematici.”
      ————————–
      La mozione dell’UMI non chiede alcuna commissione per decidere chi sta in commissione. Esprime invece grandissima preoccupazione per “l’uso automatico di parametri bibliometrici e strumenti statistici per la valutazione dei candidati e dei commissari di concorso”. Rifacendosi a posizioni largamente condivise da società scientifiche e organismi di valutazione internazionali l’UMi afferma che

      “I parametri bibliometrici possono essere uno strumento, anche utile, fra i tanti da usare in modo accorto e competente nella valutazione degli individui, specialmente a fini concorsuali. La loro applicazione però non può e non deve essere automatica, è indispensabile inserire nel contesto le informazioni date da questi strumenti, avendo ben presente le loro caratteristiche e i loro limiti”.

      Alberto Baccini (Classifiche incredibili, https://www.roars.it/online/?p=8492) ha mostrato che diversi vincitori della Medaglia Fields (Il “Nobel” dei matematici) hanno h-index assai basso. Basta questo per nutrire qualche perplessità su un sistema destinato non solo a selezionare commissari e candidati ma a orientare gli obiettivi scientifici delle generazioni più giovani. Di alcune aberrazioni già venute alla ribalta parla il mio articolo “I numeri tossici che minacciano la scienza”, https://www.roars.it/online/?p=339, che riporta le posizioni di D.N. Arnold, matematico ben noto ed ex-presidente della prestigiosa Society for Industrial and Applied Mathematics. Ridurre la mozione dell’UMI alla reazione infastidita di una corporazione che vuole mettere in commissione persone “che non producono nulla” denota l’ignoranza del dibattito scientifico internazionale, che è molto critico nei confronti della valutazione bibliometrica dei singoli ricercatori.

      =========================
      Roc: “3. L’azione dei costituzionalisti è ridicola agli occhi di chiunque faccia e pubblica scienza. La qualità di una rivista non si può decidere a priori. E’ la qualità dei contributi e il riconoscimento che essi ricevono che fa, a posteriori, la qualità della rivista.”
      ————————–
      Appunto. Se è la qualità dei contributi che conta, non si vede come si possa giudicare un prodotto (articolo) dalla sua scatola (sede di pubblicazione). Tenendo ferme tutte le riserve sulle classifiche di riviste, sperimentate ed abbandonate nella valutazione della ricerca australiana (http://theconversation.edu.au/journal-rankings-ditched-the-experts-respond-1598), correttezza vuole che i ricercatori siano informati a priori che la loro ricerca verrà considerata di classe A, *a prescindere dalla validità intrinseca* in base alla sede di pubblicazione. Da ultimo non si può che esprimere preoccupazione per classifiche di riviste elaborate in poche settimane da membri di GEV in cui sono presenti network che potrebbero mettere a rischio l’imparzialità. Che sia un organismo di nomina politica a decidere le riviste su cui si pubblica la scienza “buona” e quella “cattiva” è una deriva inquietante che ha pochi precedenti se si esclude l’URSS di Stalin (ANVUR, Scienza di regime, https://www.roars.it/online/?p=9746). Sui network delle aree 13 e 14 Roars ha già pubblicato analisi dettagliate a cui rimando il lettore interessato:

      Gli esperti di valutazione all’italiana
      https://www.roars.it/online/?p=2400

      VQR, la composizione dei GEV ed una questione di fairness
      https://www.roars.it/online/?p=6794

      A proposito del GEV14 e della fairness. E di un dilemma etico che sta sorgendo tra i sociologi. E di un modo per risolverlo.
      https://www.roars.it/online/?p=9378

  2. FSL scrive, in merito alla ragione per cui qualcuno vuole impugnare parte di un decreto, che

    “Il motivo è semplice: sono stati introdotti dei criteri retroattivi, ovvero oggi si hanno dei criteri per “giudicare” dei lavori scientifici scritti una decina d’anni fa senza che all’epoca il ricercatore avesse la possibilità di sapere quale fosse la strategia migliore per pubblicare il suo lavoro.”

    A me sembra, da una lettura della lettera di Onida, che la ragione sia un’altra: ce la dice lo stesso Onida:

    “in tal modo si fa dipendere la valutazione della qualità della produzione scientifica da un elemento estrinseco [alla qualita` della produzione scientifica]”

    e` chiaro infatti che la classificazione di una rivista in questa o quella fascia e` estrinseca alla qualita` di una pubblicazione apparsa su quella rivista

    aggiungo che anche il numero di citazioni ricevute da una pubblicazione e` estrinseco alla qualita` di quella pubblicazione

    in altre parole, la retroattivita` non mi sembra il problema maggiore: se questi “criteri” fossero veramente “oggettivi”, il sistema proposto non sarebbe irragionevole

    (non dico che sarebbe legale, perche’ non sono competente in materia e non so quando si possa imporre qualcosa retroattivamente, ma non sarebbe irragionevole premiare chi ha fatto bene e penalizzare gli altri, nell’ipotesi che si possa discernere la qualita` sulla base di certi criteri; ma farlo sulla base di “elementi estrinseci”, e per giunta retroattivamente, appare discutibile)

    • Mi sa tanto che il processo si bloccherà perchè non c’è più un euro per pensare di fare le chiamate. Questa abilitazione mi ricorda tanto il patentino di F1; se poi non trovi una scuderia, il patentino puoi appenderlo alla parete. Le uniche assunzioni che si riusciranno a fare saranno quelle dei RTD (già li vedo i futuri rettori in campagna elettorale), che creeranno delle aspettative che non potranno mai essere soddisfatte. Da questo punto di vista, l’ANVUR è l’ultimo dei nostri problemi

  3. caro De Nicolao, sarò pure ignorante sul dibattito scientifico, però chi come me di concorsi ne ha fatti più di uno sa che la probabilità di essere giudicati (anche, non solo) da persone scientificamente inattive è stata fino ad oggi molto vicina a 1. E questo perché la formazione delle commissioni era gestita dai settori disciplinari nel modo che conosciamo.

    Quando l’UMI dice “Resta comunque il problema che l’accertamento della qualità dei commissari avviene, secondo il DPR in esame esclusivamente in base a criteri bibliometrici di tipo formulistico.” immagino che stia pensando a qualche diverso sistema. Forse il vecchio sistema delle elezioni farsa? Forse l’estrazione a caso tra tutti gli ordinari? Cosa, se non una commissione per nominare una commissione?

    Sul fatto che le liste di riviste vengano dal basso posso citare il caso degli informatici, a cui appartengo. Ci sono parecchie cose che non vanno nella lista fino ad oggi proposta, ma il processo è stato questo, ed è scritto nelle FAQ del GEV01: “Sub-GEV01.1, insieme di riferimento “Computer science”, SSD INF/01: si sono utilizzati l’indice bibliometrico IF a 5 anni fornito dalla banca dati ISI WoS, l’indice bibliometrico
    2010 SJR fornito dalla banca dati Scopus, la classificazione effettuata dall’Australian Research Council nel 2010 all’interno del processo di valutazione Excellence in Research
    for Australia (ERA) e che prevedeva le classi di merito A*/A/B/C, e la classificazione effettuata dal GRIN (GRuppo dei professori e ricercatori in INformatica) nel 2004 che
    prevedeva le classi di merito A/B/C/D, completata con ACM e IEEE
    Transactions/Journals del settore stabilite dopo il 2004 e presenti in ISI WoS e/o Scopus.”
    Non mi pare una classificazione arbitraria fatta da personaggi di nomina politica. La classificazione del GRIN è stata largamente utilizzata. Se negli altri settori non si fa così, non credo che sia colpa dell’anvur.

    Altra questione, si cercano controesempi per dimostrare la falsità di un teorema. Però qui non si tratta di formulare teoremi. Ci sono persone che hanno fatto cose importantissime e hanno basso h-index o sono poco citate. E’ probabile che queste persone non potranno fare parte delle commissioni per l’abilitazione nazionale. E’ un peccato. E’ il prezzo che si paga alla ragionevole certezza di essere giudicati da persone dal curriculum almeno dignitoso.

    Per concludere, fortunatamente la discussione non avviene solo in questo blog. Partendo da un punto di vista opposto, la questione è già stata ampiamente discussa qui: http://noisefromamerika.org/articolo/valutazione-universitaria-ripassare-55-anni-grazie

    Davide Rocchesso

    • Non mi sembra pertinente il riferimento al GEV01 per dimostrare che le classifiche usate per le abilitazioni vengono “dal basso”. Infatti, per le aree bibliometriche non si useranno classifiche di riviste, ma gli indicatori bibliometrici che, come osservato dall’UMI, sono considerati largamente inadeguati a valutare le singole persone (vedi anche una recente presa di posizione della European Physical Society e i riferimenti in essa citati: http://www.eps.org/news/94765/). Pertanto, il GEV01 non verrà coinvolto nella costruzione di una nuova classifica. Come ho già osservato altrove (https://www.roars.it/online/?p=9644#comment-1312), l’adozione di criteri bibliometrici automatici, oltre a sollevare problemi immediati (non ultimo a causa dei regolamenti sconclusionati e della sgangherata procedura informatica affidata alla buona volontà dei singoli ed esposta a distorsioni deliberate o meno) solleva problemi forse ancora più gravi nel momento in cui va ad incidere sugli obiettivi e le priorità delle nuove generazioni. L’incentivazione di comportamenti opportunistici (scambi di citazioni, cordate, scambi di coautoraggi) non va sottovalutata.

      Per le abilitazioni, le classifiche di riviste sono usate solo nelle aree non bibliometriche, dove la parola finale spetta all’ANVUR, giustificando le preoccupazioni espresse da Sylos Labini nel suo articolo. In quelle aree, l’esperienza della VQR ha messo in evidenza procedure caratterizzate da trattative opache ed esposte a sospetti di conflitti di interesse.

      In quanto alle possibii alternative, la proposta elaborata dal CUN (http://www.cun.it/media/113271/do_2011_05_24_002.pdf) si basava comunque su criteri oggettivi, ma evitava il ricorso a database privati e a mediane difficilmente valutabili e foriere di paradossi. Siamo di fronte non solo ad approcci scientificamente deboli ma anche a veri e propri errori. Non è vero che l’alternativa è il degrado. La vera alternativa alle soluzioni pasticciate è sviluppare soluzioni che tengano conto della letteratura scientifica bibliometrica e delle migliori prassi internazionali.

  4. Caro Banfi, non so cosa sia il rilievo politico. Comunque, il GRIN è il gruppo di INF-01, in area 1, e non di ing-inf. Sono abbastanza documentato sulle liste di architettura e design, in area 8, per la rilevanza di queste discipline nell’ateneo a cui appartengo. Le liste che si sono viste negli allegati dell’anvur sono misere e rappresentano male la produzione scientifca di quei settori. Ho anche visto bozze che circolavano tra i professori di quei settori disciplinari qualche mese fa, fatte da loro stessi. Non erano migliori di quelle che sono state pubblicate. Come nota di colore, mi piacerebbe sapere chi ha inserito “dentistry” e “rivista marittima” (mensile della marina militare dal 1868) tra le ventitre (23) riviste di riferimento per ICAR/17 (Disegno). Saranno stati gli stalinisti dell’anvur, procedendo top-down?

  5. Caro Antonio, mi sembra una risposta un po’ tranchant (che non è da te…): invece di dire a Rocchetta di documentarsi, potresti informarlo (e informarci) sulle distorsioni politiche nella formazione dei GEV 12 e 14 e su come questo abbia influenzato la formazione delle liste di riviste. Siamo qui per informarci a vicenda perché nessuno può valutare bene quello che succede negli altri settori. Mi sembra che l’esempio di Santoro per Sociologia – con nomi e cognomi, partito politico ecc. – sia quello da seguire. Nessuno pensa che tutti i GEV stiano lavorando bene, ed è utile farsi un’idea precisa sui casi più controversi.

    • Caro Guala, la quoto in pieno e mi associo alla sua richiesta di “informazione” posta a Bamfi.

      Piccolo appunto: ho notato un atteggiamento, quasi di sufficienza, verso i commenti di Rocchesso. Suggerisco e consiglio, per quando mi è possibile, di evitarli; le tesi che ha esposto non sono certo impopolari in determinati ambienti ed, anzi, anche seguite. Se il fine ultimo del nostro continuo confronto è la realizzazione di qualcosa di buono, ben venga; al contrario, se deve essere un gioco al “chi lo ha più lungo”, mi dichiaro già sconfitto!

    • Caro Francesco, purtroppo fa caldo ed è facile lasciarsi andare al malumore :).
      Dammi tempo, in agosto dovrei scrivere una cosa su alcune esperienze di area 12, e suppongo che potranno emergere cose non così diverse da quelle osservate da Santoro. Intanto anticipo che nel mio settore i revisori sono stati così competenti e informati della materia da confondere la rivista Polis, studi interdisciplinari sul mondo antico, con la rivista Polis di sociologia, edita dal Mulino. Morale, rivista esclusa perché non pertinente. E pare perfino (relata refero) che il gev responsabile, uno straniero, non ne sapesse nulla.

  6. Trovo questo post non del tutto corretto nella sostanza.

    Io mi domando e vi domando: il sistema italiano del reclutamento nel mondo accademico, da 20 anni fa ad oggi, ha prodotto, almeno principalmente, qualcosa di buono? In poche parole, siamo in positivo od almeno in pareggio? Possiamo dire che la nostra Accademia vive di ottima salute? Siamo in grado di affermare che c’è una sana e meritocratica competizione? Possiamo garantire che l’accesso nel mondo della ricerca è oggi consentivo ai giovani?

    Perchè, attenzione, queste sono le vere domande, a mio parere, da farsi!

    La mia “personalissima” risposta è che trovo e vedo, guardandomi in giro, pur essendo un “giovane” 32-enne (dei quali 32, 9 passati puramente ed unicamente nel mondo accademico!), solo ed unicamente MACERIE! Forse non sono un buon osservatore o forse non vedo bene (un po’ miope lo sono!).

    Parliamo tanto di “Baroni”? Ma chi sono questi baroni? Esattamente quali sono le loro caratteristiche? Per la mia personale esperienza riconosco, invece, solo gente in grande malafede che, purtroppo, con il denaro pubblico (cioè della collettività…cioè anche il tuo!) fa UNICAMENTE attività privata, che, ancora purtroppo, NON SA cosa sia una pubblicazione scientifica internazionale (e tutte le difficoltà ad essa correlate), che manda, in modo non consono, i propri dottorandi a fare l’intero corso! Mi fermo qui e non vado oltre…ma sappiamo tutti a cosa mi riferisco.

    Se questo è il sistema “perfetto”, allora credo di essere, personalmente, molto distante dalla perfezione!.

    Pur non amando in modo particolare la legge Gelmini (in primis ritengo non corretto che non ci sia una graduatoria nazionale degli abilitati) è sempre meglio dello scempio che oggi l’Italia, purtroppo, ha nelle proprie università.

    Avrei preferito vedere, da giovane sognatore quale sono, un bel sollevamento di scudi quando gli effetti NEFASTI di alcune scelte politiche hanno prodotto questa situazione: penso, giusto a titolo di esempio, alle 3/2 idoneità nei concorsi da professore od ai concorrenti di casa “quasi sempre vincitori”.

    Entrando nel merito,si può dire tutto quello che si vuole sui parametri di valutazione scientifica adottati e si possono citare 1, 10 o 100 articoli che dicono che sono errati e/o ingiusti. Un piccolo esempio, però, può dimostrare come questi parametri, pur non essendo i migliori possibili e pur essendo affetti da possibili errori, non sono affatto “internazionalmente” superati. Ad oggi, se si vuole intraprendere in Inghilterra una carriera da ricercatore è necessario presentare, solo PER ESSERE AMMESSI al POSSIBILE colloquio, le proprie pubblicazioni. Guarda caso(!?), le suddette pubblicazioni, sono valutate (incredibile!) in funzione della rivista in cui compaiono, delle citazioni ricevute, dal numero di autori e, di conseguenza, lo stesso candidato stesso è valutato da indici come lo H-index. L’esperienza (ottima!) inglese non ci dice certo che i parametri, che alcuni ritengono addirittura superati e inappropriati, lo siano davvero!

    In più, è inutile girarci intorno…le vere motivazioni di tutte queste lamentele sono strettamente connesse con la perdita di potere degli ordinari nelle commissione dei concorsi!

    Propongo a ROARS, sito che seguo e stimo pur non essendo spesso in pieno accordo con gli autori che scrivono al suo interno, di effettuare, allora, un piccolo sondaggio on-line tra i “giovani ricercatori” con la seguente domanda: “Preferireste essere valutati da professori con parametri più alti o più bassi dei vostri?”. Credo che la risposta al sondaggio possa dare una chiara indicazione su cosa i giovani della “ricerca del domani” pensano.

  7. A mio parere ridurre il ragionamento di Francesco Sylos Labini al tema delle abilitazioni è fuorviante rispetto al problema che pone nel suo post. Scrive infatti: “Il problema di fondo di tutta la questione non è solo il decreto delle abilitazioni: è molto più importante e vitale perché riguarda l’indipendenza e l’autonomia della ricerca dal potere politico.” La classificazione delle riviste e il ruolo di ANVUR nel processo di reclutamento sono SOLO esempi di come una executive agency di diretta nomina ministeriale può intervenire con atti amministrativi sui meccanismi di produzione della ricerca. Una agenzia con competenze pervasive come quelle attribuite ad ANVUR (didattica, ricerca, reclutamento) non credo abbia uguali in Europa (e tantomeno negli Stati Uniti). Il disegno sembra quello di una “rivoluzione dall’alto” per risolvere gli annosi problemi (nepotismo, concorsi truccati, baronaggio, autoreferenzialità di molte aree disciplinari) di una università italiana considerata irriformabile.
    Speriamo che il prezzo da pagare non sia troppo alto, e che i danni all’assetto istituzionale non siano irreversibili. Speriamo anche e soprattutto che qualche forze politica proceda nella prossima legislatura a ridisegnare secondo una architettura coerente di pesi e contrappesi il sistema di valutazione della ricerca, di accreditamento dei corsi di studio, di controllo amministrativo sul sistema universitario e della ricerca.

  8. Il sistema dell’abilitazione non sarà il migliore possibile, ma è molto molto meglio di quanto abbiamo avuto finora. Che ci siano alcuni errori è innegabile (e ROARS è molto attento a dare la caccia a tutti i contro-esempi più “patologici” che si possono immaginare), ma io dico di dare delle chances ad ANVUR, che per ora sta operando in maniera complessivamente buona a mio parere.

    • “Il sistema dell’abilitazione non sarà il migliore possibile, ma è molto molto meglio di quanto abbiamo avuto finora. ” Questo non è un ragionamento al massimo è una affermazione non basata su alcun argomento. E’ dunque una speranza altrimenti è pura ideologia: in entrambi i casi buona fortuna. Per il resto Roars ospita argomenti sulla valutazione scritti da persone competenti sul tema e di quelli rispondiamo.

    • Tu preferisci un sistema locale in cui ogni concorso produce 2 “idonei” (e gli altri perché dovrebbero essere “non idonei”?)? Almeno ora c’è un controllo a priori. Che allo stato attuale dovrebbe essere sufficiente a selezionare molti potenziali buoni professori. E che negli anni potrà anche cambiare ed essere modulato. Ma oggi, sempre secondo me, c’è bisogno di un sistema chiaro e rapido da implementare. E questo è ciò che l’ANVUR ha, nel bene e nel male, cercato di fare. Poi fra qualche anno che si cambi pure il sistema. Ma intanto meglio partire, anche se con uno strumento grezzo, che magari produrrà qualche vittima, ma che quanto meno non è del tutto arbitrario.
      Poi certo, se ritieni di voler solo discutere con esperti di valutazione, va bene. Non preoccuparti di rispondere al mio commento, non mi offenderò per questo.

    • ma io non difendo nulla, tantomeno il sistema esistente ora ! dico solo che si può fare peggio e di parecchio ! se pensi che tutta questo ambradam possa funzionare sei molto ottimista e probabilmente con poche cognizioni legali. Se tutto va bene (i.e. l’impugnazione dei costituzionalisti viene respinta) saranno sommersi da una valanga di ricorsi perché il tutto è stato scritto male: cosa è una mediana in una distribuzione multimodale e misurata in un database incompleto? Auguri !

    • Marc: “c’è bisogno di un sistema chiaro e rapido da implementare”

      Concordo pienamente. Il problema è proprio che i criteri ANVUR non sono chiari e neppure rapidi da implementare: vedi proroga di oggi e le grosse difficoltà tecniche sia sul lato mediane che sul lato CINECA.

      Marc: “intanto meglio partire, anche se con uno strumento grezzo, che magari produrrà qualche vittima, ma che quanto meno non è del tutto arbitrario.”

      Con questo tipo di argomentazione c’è il rischio di giustificare qualsiasi errore con la scusa che bisogna pur fare qualcosa. Tra l’altro, non c’è bisogno di inventare la ruota. Le università esistono anche nelle altre nazioni, ma le soluzioni nostrane sono alquanto inedite. Se si sentiva l’urgenza di partire con un sistema chiaro e rapido, perché azzardare soluzioni improbabili?

    • Io sono sostanzialmente d’accordo con tutte le vostre osservazioni, sia chiaro. Non sono d’accordo che sia ragionevole buttar via il bambino con l’acqua sporca, come propone Onida (per motivazioni a priori che, personalmente, trovo non condivisibili). Credo che sia opportuno insistere perché il sistema cambi, ma non ora, altrimenti si bloccherà tutto per chissà quanto tempo. La cosa migliore a parer mio sarebbe che si partisse, e che tutte le osservazioni provenienti dalla prima tornata di abilitazione fossero tenute in conto per migliorare quelle successive (eventualità già prevista negli stessi documenti ANVUR). Sarebbe stato meglio lavorarci più approfonditamente prima ma non è andata così.

    • Continuo a credere che sia paradossale che l’agenzia che dovrebbe valutare la qualità della ricerca discriminando ciò che è eccellente da ciò che non lo è, non solo commetta errori specifici a volte anche gravi (basti citare l’uso di soglie bibliometriche eterogenee nella medesima Area 09) ma dimostri scarsa conoscenza della letteratura scientifica e delle esperienze delle altre agenzie di valutazione nazionali. Alcuni errori della VQR erano architetturali e riguardavano l’intero impianto (uso inappropriato della bibliometria e delle classifiche delle riviste, selezione inadeguata dei GEV incaricati di costruire la griglia valutativa ed anche di valutare, con tutti i conflitti di interesse che ne seguono).

      Il problema segnalato da Sylos Labini è tra i più gravi: un’agenzia di nomina governativa è stata messa in grado di travalicare il ruolo tecnico interferendo nella libertà di ricerca. In base ai decreti e alle delibere, le classifiche delle riviste nelle aree non bibliometriche potrebbero essere usate per orientare la ricerca facilitando la nomina a commissari e le abilitazioni di una scuola di studiosi a discapito di altre. Alla luce dei network già evidenziati in due GEV, si tratta di una novità del tutto allarmante.

    • Credo che siamo tutti d’accordo con la seconda parte del tuo ragionamento: sarebbe stato molto meglio avere un’agenzia indipendente e bisogna lavorare perché questo errore sia corretto in futuro. (Nella prossima legislatura, presumibilmente: non è pensabile che in mezzo al VQR si metta mano alla struttura dell’Anvur.)
      Credo che molti post siano stati stimolati da una frase in particolare, nella quale si indicano alcuni GEV some i “lysenkini nostrani”. La frase suggerisce che la manipolazione delle abilitazioni non è un solo un’ipotesi ma anche una realtà; molti evidentemente hanno dei dubbi e preferiscono farsi valutare sulla base delle imperfettissime liste di riviste che con il sistema attuale. E’ difficile dargli tutti i torti – anche se come al solito bisognerebbe giudicare caso per caso.

    • Il termine “lysenkini” è sicuramente forte e serve a destare allarme. Sono d’accordo che nella fase attuale possiamo solo manifestare timori per le possibili degenerazioni rese possibili dalla (infelice) normativa. In ogni caso, non è vero che i candidati verranno valutati solo in base alle liste di riviste. I parametri bibliometrici sono solo condizioni necessarie e le commissioni dovranno valutare anche gli altri criteri qualitativi riportati nel decreto ministeriale. I margini di discrezionalità esistono ancora. Molti pensano che verranno abilitati tutti i candidati che superano le mediane (e forse anche di più se la commissione chiederà la deroga preventiva), ma la normativa contempla la possibilità di un filtro più severo. Se mai si faranno le abilitazioni, sarà interessante vedere cosa succederà settore per settore.

  9. Mi sembra, leggendo i commenti, che ci sia un po’ di confusione: provo a chiarire qualche punto.

    Il ricorso dei costituzionalisti si riferisce solo ai settori NON bibliometrici, ed infatti richiama il principio del “legittimo affidamento”; la retroattività è un aspetto secondario.
    I costituzionalisti (ed altri settori non bibliometrici) facevano affidamento, nel pubblicare, sulla qualità dell’articolo (o altro) e soprattutto non potevano immaginare e tantomeno aspettarsi una valutazione basata su una classifica di riviste.
    Se invece consideriamo i settori bibliometrici, il discorso è molto diverso: 10 anni fa gli indicatori bibliometrici (ad esempio Impact Factor) erano già molto diffusi e le riviste erano in competizione per ottenere valori elevati degli indici, quindi allora era già prassi consolidata selezionare le riviste in base ad indici citazionali e osservare l’h-index (ad esempio) dei ricercatori, quindi un ricercatore già allora poteva aspettarsi una valutazione basata su tali indici, ovvero non potava fare affidamento su una pura qualità intrinseca del lavoro pubblicato senza alcuna considerazione del livello della rivista e delle citazioni.

    Più tardi provo ad esaminare altri dettagli.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.