Il 4 maggio 2012 i proff. Andrea e Pietro Ichino hanno chiesto l’intervento della CiVIT (Commissione per la Valutazione, l’Integrità e la Trasparenza nella pubblica amministrazione) e del Garante della privacy allo scopo di rendere pubbliche le valutazioni dei singoli ricercatori per mezzo dei dati raccolti per adempiere all’obbligo della valutazione 2004-2010 della qualità della ricerca (VQR), disposta dal Ministero dell’Istruzione, Università e Ricerca, con le modalità previste dall’Agenzia per la valutazione (ANVUR).

La CiVIT dava il suo parere positivo il 24 maggio, ma dopo giorni arrivava la risposta negativa della stessa ANVUR.

Le polemiche che sono seguite rendevano evidente che la VQR – un esercizio colossale (si vedano le statistiche), che ha mobilitato tutto il sistema della ricerca pubblica italiana (fatta attraverso le Università e gli Enti di Ricerca) – concepita per valutare il complesso della produzione delle varie istituzioni scientifiche, ha regole (dettate dall’ANVUR) tali da rendere del tutto senza senso l’uso dei dati per la valutazione dei singoli ricercatori (come dibattuto qui, qui e qui).

E’ invece di questi giorni, annunciata sempre sul sito dei proff. Ichino, la risposta (documento completo in pdf) del Garante dela privacy, che rigetta la richiesta per le stesse ragioni che erano apparse immediatamente evidenti: la VQR è concepita e impostata per la valutazione delle cosiddette strutture (i dipartimenti universitari e gli enti di ricerca) e non della produttività dei singoli ricercatori, anzi, al contrario, l’uso di quei dati per “l’apprezzamento del merito scientifico dei singoli ricercatori” fornirebbe “elementi non del tutto congrui“. E il Garante sottolinea che a tale scopo “il legislatore ha previsto altre e diversamente articolate procedure“.

Appariva chiaro sin dall’inizio che un’iniziativa logicamente viziata non sarebbe stata positiva per ottenere i risultati dichiarati dai proff. Ichino – la valorizzazione del merito, la trasparenza, il miglioramento dell’efficienza del sistema della Ricerca italiana – che sono invece assolutamente condivisibili.

Non rimane che augurarsi, allora, che questa bocciatura venga accolta con serenità e che spinga – finalmente – a ragionare assieme a tutta la comunità sugli strumenti più corretti attraverso i quali garantire il merito e la trasparenza. Anche l’ANVUR potrebbe fare tesoro di questo episodio, riconoscendo che il mondo accademico e della ricerca non sono arroccati in una cieca difesa contro ogni forma di valutazione, ma – al contrario – è disponibile a utilizzare quelle pratiche e metodologie internazionalmente riconosciute, in uno spirito di confronto e apertura che sono (o dovrebbero essere) il tratto distintivo della comunità scientifica.

Send to Kindle

101 Commenti

  1. Il primo dato oggettivo di critica nei confronti della vqr, come richiesto da un commento, e’ che circa 450 gev, non si sa come scelti (insieme ad un numero imprecisato di revisori nominati dagli stessi gev), dispongono di un potere enorme di fornire giudizi inappellabili sulla produzione scientifica dei ricercatori coinvolti dall’esercizio. L’altro dato e’ che, nei settori non bibliometrici, si sono create classifiche di riviste in base a criteri del tutto nebulosi. E queste classifiche avranno un forte influsso sulla valutazione e sui risultati che da essa si trarranno. Le altre critiche ben dettagliate su questo sito nelle faq sulla vqr.

    • quindi…la peer review non funziona perchè occorre nominare troppe persone e attenersi ai loro, inappellabili, giudizi. Dall’altro lato, però, neanche la classificazione delle riviste (che risolve il problema della numerosità di incarichi nella peer review) va bene perchè ha criteri nebulosi. Aggiungo che se non fossero nebulosi ma chiari, qualcuno (certamente in Roars) sosterrebbe che sarebbero stilati chiaramente ad personam. Ma un pò di sano realismo non sarebbe forse auspicabile, signori colleghi? L’impressione netta è che si critichi pregiudizialmente un processo senza avere la più pallida idea nè delle sue difficoltà operative (sottolineo operative) né delle soluzioni per esse praticabili e da implementare in tempi umani. Amo la teoria ma, come tutte le cose, mai in eccesso.

    • quindi…la peer review non funziona perchè occorre nominare troppe persone e attenersi ai loro, inappellabili, giudizi.
      _________
      Dissento. Come al solito è un problema di regole da rispettare e di verifiche a posteriori. Nel caso specifico, sarebbe stato meglio reclutare i membri dei GEV evitando che fossero troppo omogenei (il 75% del GEV 13 sono coautori o coautori di coautori: https://www.roars.it/online/gli-esperti-di-valutazione-allitaliana/; un’altra situazione critica si è verificata nel GEV 14: https://www.roars.it/online/a-proposito-del-gev14-e-della-fairness-e-di-un-dilemma-etico-che-sta-sorgendo-tra-i-sociologi-e-di-un-modo-per-risolverlo/). Inoltre, i presidenti dei GEV avrebbero dovuto essere eletti dai GEV ed invece sono stati nominati dal consiglio direttivo ed è forte il sospetto che si siano scelti dei membri GEV omogenei al loro orientamento. Da ultimo, sarebbe bene che la lista dei revisori venisse resa pubblica come viene fatto a fine anno da molte riviste peer-reviewed (non sto chiedendo di sapere chi ha valutato cosa, ma che si sappiano chi sono stati i revisori). Questa ultima verifica è importante per controllare che i revisori non siano stati scelti solo tra studiosi che condividevano lo stesso orientamento. Insomma, non tutte le peer review sono uguali, ma l’attenzione per il pluralismo (come pure la sterilizzazione dei conflitti di interesse) richiedono il rispetto di regole procedurali.
      ===========================
      Dall’altro lato, però, neanche la classificazione delle riviste (che risolve il problema della numerosità di incarichi nella peer review) va bene perchè ha criteri nebulosi.
      ____________
      Dissento nuovamente. Per la valutazione di scientificità si possono definire dei criteri non tacciabili di essere meramente nebulosi (per quanto la separazione tra riviste scientifiche e non, resta difficile). Cito da un nostro articolo (https://www.roars.it/online/per-giustificare-le-riviste-pazze-lanvur-paragona-suinicoltura-al-caffe-di-pietro-verri/): “Ecco una cogente definizione di pubblicazione scientifica, quella della Norwegian Academy of Science and Letters (http://www.uhr.no/documents/Rapport_fra_UHR_prosjektet_4_11_engCJS_endelig_versjon_av_hele_oversettelsen.pdf), adottata nella classificazione delle riviste del governo finlandese (http://www.aka.fi/Tiedostot/Tiedostot/Liitetiedostot/OKM_julkaisutyyppiluettelo_2010_en.pdf):

      An academic publication is defined according to four criteria; all four of these must be satisfied. The publication must:

      – present new insight;
      – be presented in a form that allows the research findings to be verified and/or used in new research activity;
      – be written in a language and have a distribution that make the publication accessible to most interested researchers;
      – appear in a publication channel (journal, series, book publisher, website) that has routines for external peer review.”

      La stessa ANVUR ha definito dei criteri di scientificità (anche se in contraddizione con la definizione di lavoro scientifico adottata nei paesi OCSE), ma poi li ha violati sistematicamente, con effetti persino ridicoli.
      ==================
      Aggiungo che se non fossero nebulosi ma chiari, qualcuno (certamente in Roars) sosterrebbe che sarebbero stilati chiaramente ad personam.
      _________________
      Dissento di nuovo. Se uno dei criteri è che la rivista preveda la peer-review, non vedo come si possa dire che è stilato ad-personam. I criteri che ANVUR aveva formulato (per quanto molto migliorabili) non erano ad personam. Il problema è che sono stati applicati a corrente alternata (ad personam?).
      ===================
      Ma un pò di sano realismo non sarebbe forse auspicabile, signori colleghi? L’impressione netta è che si critichi pregiudizialmente un processo senza avere la più pallida idea nè delle sue difficoltà operative (sottolineo operative) né delle soluzioni per esse praticabili e da implementare in tempi umani.
      __________________
      Sono perfettamente d’accordo sulla necessità di un sano realismo. Un sano realismo suggerirebbe di non costruire liste di riviste scientifiche facendo circolare fogli Excel affidati ad un controllo frettoloso da parte delle società scientifiche. Un sano realismo, suggerirebbe di parlare di mediane sapendo cosa è una mediana. Un sano realismo suggerirebbe di non usare criteri bibliometrici privi di basi scientifiche e di qualsiasi precedente internazionale (forse perché altrove sono più sani e più realisti di noi). L’auspicio di “sano realismo” andrebbe girato a chi ha messo in piedi un sistema farraginoso e pieno di errori “senza avere la più pallida idea nè delle sue difficoltà operative (sottolineo operative) né delle soluzioni per esse praticabili e da implementare in tempi umani”.
      ==================
      Amo la teoria ma, come tutte le cose, mai in eccesso.
      _________________
      Anch’io e più di un anno fa ho anticipato a Bonaccorsi le voragini in cui sarebbe caduta la procedura. L’uso delle mediane è un’ottima esemplificazione di (cattiva) teoria inapplicabile alla realtà.

    • Nessuno della redazione di roars ha mai sostenuto che la “la peer review non funziona perchè occorre nominare troppe persone e attenersi ai loro, inappellabili, giudizi.” Avrà trovato scritto che nel piccolo mondo italiano, la peer review qualche problema (per usare un eufemismo) lo incontra.
      Ed allora una buona classificazione delle riviste sarebbe utile -l’ho scritto decine di volte.
      Liste di riviste fatte in modo chiaro ce ne sono in giro per il mondo.
      Faccio notare che in linea di massima:
      1. le liste di riviste non sono realizzate direttamente dall’agenzia di valutazione;
      2. se sono realizzate dall’agenzia di valutazione, i criteri sono dettati/concordati con altri organismi accademici; (parziale eccezione la Francia dove però l’agenzia è una autorità amministrativa indipendente dal ministero!)
      3. la prima release della lista (e anche la seconda qualche volta) sono sottoposte ad ampie, formalizzate e trasparenti consultazioni delle società scientifiche;
      4. i tempi umani della realizzazione (pratica, non teorica) sono 1-2 anni.
      In nessuna esperienza che io conosco il ministro nomina i membri di una agenzia; l’agenzia di valutazione decide i criteri, nomina piccoli gruppi di studiosi per la realizzazione delle liste; consulta in forme del tutto misteriose le società scientifiche; e pubblica i risultati nel giro di un’estate.
      Non c’è molto da meravigliarsi se i risultati sono al di fuori di ogni standard di ragionevolezza.
      Libero di credere che queste siano critiche pregiudiziali.A mio parere “chi ha dimostrato di non avere la più pallida idea delle difficoltà operative né delle soluzioni praticabili” è proprio l’ANVUR.

    • la chiave per far funzionare la peer review e’ la credibilita’: questo e’ il problema dell’Anvur. La classifica delle riviste non ha criteri nebulosi, ma e’ semplicemente impresentabile (come messo dai due articoli apparsi da poco a cui manca ancora la terza puntata che verra’ pubblicata a breve). In conclusione, mi sembra che chi non ha idea di quello che fa sia l’Anvur.
      Buon lavoro comunque.

  2. Senza entrare nel merito della questione trasparenza/privacy (estremamente opinabile e complessa sul piano giuridico), mi limito a rilevare un fatto.
    Ho appena letto l’articolo sul Corriere di A. Ichino, intitolato “Il Garante della privacy fermo a Tacito”.
    L’onnisciente articolo impartisce lezioni di diritto pubblico allo scolaretto Garante, il quale (è bene ricordarlo) è un’autorità indipendente.
    Trovo assurdo che si irrida l’autorità indipendente sulla privacy e, invece, si taccia completamente al cospetto di un agenzia ministeriale (l’ANVUR), non indipendente dal Governo, che da mesi rifiuta o ignora richieste di trasparenza avanzate persino da un organo istituzionale come il CUN.
    Tutto questo è poco edificante.
    Da un certo punto di vista – ed è un triste paradosso di questi tempi – i negatori della trasparenza finiscono per apparirmi più onesti dei censori della non-trasparenza “a senso unico”.

    • Per la prima volta non riesco a condividere appieno le opinioni di JUS.

      Perché pubblicare i dati VQR? Per le argomentazioni di Alberto Baccini, sulla trasparenza, alle quali aggiungerei una considerazione.

      Giugno 2013: sono noti i risultati della VQR e c’è un consiglio di dipartimento nell’università X. Il dipartimento ha ottenuto una valutazione mettiamo di 60 punti su 90. Cosa succede?? Quando si arriva al punto all’ordine del giorno ri(-s-)partizione delle risorse, inizia il caos. Qualcuno sicuramente avrà i dati dei singoli, se non altro qualcuno nella struttura conosce perfettamente la lista di prodotti trasmessi. Dopodiché chi ha i dati può proporre qualcosa senza possibilità di controdeduzioni, ad esempio se nel dipartimento ci sono i SSD A, B, C, che la “colpa” della scarsa valutazione è attribuibile al settore C (0 punti), mentre A e B (30 punti ciascuno) sono virtuosi. Si parte quindi con una serie di accuse incrociate e argomentazioni basate su un “si dice” PRIMA di ripartire le risorse. L’utilizzo dei dati VQR per una ripartizione delle risorse all’interno delle aree non è una possibilità, ma una quasi certezza. Ed è anche logico: se una squadra perde, l’allenatore cerca di capire se sia stato un problema l’attacco, la difesa o il centrocampo (o l’arbitro…). Avere questi dati certificati da una autorità indipendente eviterebbe tanti problemi. Ripeto: credere che i dati VQR non vengano pubblicizzati a livello di singoli nei dipartimenti è pura illusione. A questo punto, tanto vale renderli noti a tutti.
      Mi dispiace se i miei commenti su questo argomento sono molto tecnici e di interesse e comprensione pressoché nulla per chi non appartiene al mondo universitario, ma tuttavia rispecchiano fedelmente questa complessa realtà.

      Quindi, concludendo, possiamo discutere quanto vogliamo della presunta arroganza degli Ichinos (come sono stati soprannominati in questi forum) o anche delle loro finalità, ma la pubblicazione dei dati VQR creerebbe problemi ben più piccoli di quelli che si vorrebbero evitare con la loro non pubblicazione. Tra l’altro, pur non avendo le competenze di JUS, più leggo la lettera del Garante e la risposta degli Ichinos e più mi convinco che questi ultimi abbiano valide argomentazioni.

  3. Leggo tutto in ritardo. Che bello il post di Paolo Rossi con la citazione di Schiller e le domande a Trovati. Quanto a Tacito evocato da Ichino: che vuol dire “fermo a Tacito” ? Osserva giustamente Jus che se vogliamo scomodare Tacito, facciamolo prima di tutto per l’agenzia ministeriale che ignora ogni richiesta di trasparenza. Perché Ichino non chiede che siano pubblicati i verbali di tutti? Quelli sulle classifiche delle riviste, per esempio, oppure quelli relativi alle nomine dei Gev, dei revisori, dei componenti Gdl?

  4. la risposta è semplice, Mariella, perché quei verbali (almeno nella forma dovuta per ogni atto amministratico non sono stati mai fatti)…ora che il Tar del Lazio ha obbligato l’Anvur a concedere l’accesso agli atti…mi domando cosa stia accadendo a Piazza Kennedy

  5. Alcune precisazioni.

    1) Quello che abbiamo chiesto e’ che vengano rese pubbliche le valutazioni dei singoli prodotti scientifici presentati da ciascun docente (come ci sembra anche Baccini proponga) con l’elenco di tutti i coautori. Questo elenco risolverebbe il problema degli autori che abbiano dovuto cedere una o piu’ delle loro migliori pubblicazioni a qualche collega a cui mancassero prodotti di valore da presentare.
    In altre parole, chiediamo la visibilità dei dati elementari e poi ognuno fara’ le aggregazioni e gli studi che crede.

    2) E’ vero che la VQR e’ stata pensata per i dipartimenti, non per i singoli, ma di fatto le informazioni raccolte dalla VQR, se rese trasparenti con l’elenco di tutti i coautori come da noi suggerito, possono dare indicazioni utili anche sui migliori prodotti di ricerca di ciascun docente italiano. Non sulla quantità ma sulla migliore qualita’. Non riusciamo a immaginare una situazione in cui un dipartimento abbia interesse a sottrarre alla valutazioni i migliori prodotti di qualcuno. Ma se cosi’ fosse, lasciamo che almeno la trasparenza possa valere per i dipartimenti in cui cio’ non e’ accaduto.

    3) Abbiamo spiegato le numerose ragioni di merito a supporto della nostra proposta nell’articolo sul Corriere del 14 Giugno che potete scaricare qui
    http://www2.dse.unibo.it/ichino/new/other_articles/corsera_anvur_privacy_andrea_pietro.pdf

    4) Il Garante per la Privacy si e’ arrampicato sui vetri per argomentare che la nostra proposta e’ in contrasto con le chiarissime norme vigenti. Vedi la nostra risposta
    http://www2.dse.unibo.it/ichino/new/other_articles/privacy_anvur_finale.pdf
    Molto ci divide dalle posizioni di Roars.it, ma sulla trasparenza riguardo all’Anvur pensavamo di poter essere totalmente d’accordo.

    5) Il richiamo di FSL al mio articolo con Enrico Moretti “Biological Gender Differences, Absenteeism and the Earning Gap” (AEJAE, 2009) e’ la miglior dimostrazione di quanto la trasparenza possa essere utile (anche se non credo che questo fosse l’intento di FSL). Quell’articolo ha suscitato un discreto dibattito scientifico fatto di repliche che non hanno trovato conferma dei nostri risultati e hanno criticato il nostro metodo di analisi; ma anche di repliche e altri studi che invece hanno trovato conferme (i dati e i programmi, per chi volesse analizzarli, sono scaricabili dal sito della rivista). E’ uno dei tre articoli che io ho sottoposto alla VQR. È possibile che riceva un voto basso o alto a seconda del peso che i valutatori daranno alle critiche o alle conferme. Indipendentemente dalla valutazione, questo articolo contribuirà al risultato aggregato del Dipartimento di Scienze Economiche di Bologna. A me sembra utile che si sappia in modo trasparente che il risultato del DSE di Bologna si basa anche su questo articolo, con i suoi meriti e difetti, cosi’ come su tutti gli altri che sono stati presentati. E questo affinche’ chiunque sia interessato possa valutare l’attendibilità della valutazione aggregata del dipartimento stesso.

    Andrea Ichino

    • @andrea.ichino
      Ho tre obiezioni:

      1) uno strumento (VQR) pensato e disegnato per un obiettivo (valutazione dei dipartimenti) non “deve” essere usato per obiettivi diversi (valutazione del contributo dei singoli al dipartimento), se non si vogliono rischiare forti distorsioni. E’ evidente dalle parole di Ichino (“possono dare indicazioni utili anche sui migliori prodotti di ricerca di ciascun docente italiano”) che questo è l’uso strumentale che se ne vuole fare.
      2) La trasparenza è bella fin quando non è opaca e la trasparenza a chiazze fa aumentare il sospetto anziché dipanarlo. Esempio: la suddivisione in fasce delle riviste per alcune aree è arrivata dopo la chiusura della VQR (correggetemi se sbaglio). È questa una procedura trasparente? Ci sarà in Italia qualcuno che si sta mangiando le mani per aver sbagliato l’articolo da inserire? Sul punteggio del Dipartimento potrebbe avere impatto marginale (tipo 1 su 150) ma sulle “indicazioni utili sui migliori prodotti di ciascuno”(1 su 3)? E se qualcuno più vicino ai GEV non ha fatto lo stesso errore?
      3) Se pure venissero indicati tutti i coautori e fosse possibile per tutti vedersi riconosciuti i propri contributi quale sarebbe “l’indicazione utile”? Gli individui con lavori coautorati all’interno del Dipartimento sarebbero valutati in base ai 3 lavori presentati direttamente più il lavori presentati dai propri coautori (1, 2, 3…).; gli individui con lavori coautorati all’esterno del Dipartimento e gli individui senza lavori coautorati sarebbero valutati per i soli 3 lavori presentati direttamente. È trasparenza o distorsione?

    • Sui punti 1)-4) si è già discusso ad nauseam e, come ribadito da Paolo Rossi, non tutte le discipline hanno le problematiche di economia (per fortuna). Lo aveva già spiegato Fernando Ferroni (presidente INFN) qui https://www.roars.it/online/prospettive-della-valutazione-e-politiche-di-sistema-attori-a-confronto-i-video-parte-4/
      Altro d’aggiungere non c’è.

      Sul punto 5): mi sembra evidente che ci sia ancora una certa confusione su cosa significhii valutazione. Gli articoli scientifici di tutti sono pubblici (almeno quelli di ricerca “fondamentale” – casomai si pagano ma questa è un’altra storia): questo non c’entra nulla con la trasparenza di un esercizio di valutazione. Dunque, avendo un abbonamento ad una database si possono vedere le citazioni di ogni articolo ed anche l’hindex del suo autore. Il contributo di 1 articolo alla valutazione aggregata di una struttura che ha un centinaio di afferenti è circa trascurabile visto che rappresenta un contributo di circa 1/300. Però, invece di contare i numeretti, il suo articolo si può anche leggere, e magari dare un’occhiata alla statistica.

    • 1. Scrive Ichino: “In altre parole, chiediamo la visibilità dei dati elementari e poi ognuno fara’ le aggregazioni e gli studi che crede.” Questo non è precisamente quello che io intendo con disponibilità dei dati elementari. Io intendo una procedura molto simile a quella seguita tutte le volte che si richiedono dati elementari sensibili a fini di studio. I dati vengono consegnati alla responsabilità del singolo studioso che diventa responsabile del loro trattamento e si impegna a non pubblicarli in forma disaggregata.
      Perché ritengo ci sia bisogno di questa cautela? Perché le valutazioni sui singoli prodotti di ricerca sono fortemente inaffidabili perché basate (in quasi tutti i settori) sulla bibliometria! E come sa chiunque abbia letto un qualunque manuale di base, la bibliometria non è affidabile per la valutazione del singolo prodotto di ricerca. Su questo ho scritto fino alla nausea in tempi non sospetti, per esempio qua https://www.roars.it/online/il-vqr-ed-il-vino-a-due-stadi/.
      Ma non è meglio la trasparenza totale? A me la trasparenza totale non scandalizza. A patto però che ANVUR scriva chiaramente una frase di questo tipo sul sito dove verranno pubblicati i dati: “I giudizi sui singoli prodotti di ricerca riguardano il loro impatto/diffusione e non la qualità intrinseca della ricerca. Essendo ricavati per la maggior parte con procedure bibliometriche [di nostra propria produzione e mai sperimentate in precedenza] sono singolarmente poco affidabili, perché, come è ben noto, non esiste nessuna relazione tra impatto del singolo contributo di ricerca e impatto della rivista su cui è apparso il contributo. Per questa ragione i dati NON DEVONO essere utilizzati per nessun tipo di valutazione che riguardi i singoli ricercatori.” Questo eviterebbe il loro uso strumentale, o forse lo renderebbe più difficile.

      2. Scrive Ichino. I dati possono dare informazioni utili “non sulla quantità ma sulla migliore qualita’. Non riusciamo a immaginare una situazione in cui un dipartimento abbia interesse a sottrarre alla valutazioni i migliori prodotti di qualcuno.”
      Una prima postilla: impatto o diffusione non qualità (vedi sopra).
      Una seconda: i criteri di valutazioni non erano noti prima della scelta dei prodotti (per esempio in Area 13), quindi molti ricercatori e molte strutture potrebbero avere scelto i prodotti sbagliati per mancanza di informazione.
      Infine: spero che Ichino vorrà concedere che se le regole fossero state diverse (quelle del RAE britannico per esempio, dove vengono chiesti a ciscuno i suoi memoriaprodotti migliori da sottoporre a peer review) le scelte sarebbero state diverse. In area13 per esempio, sapendo che il gev avrebbe valutato sulla base di una classifica delle riviste ignota al momento della scelta dei prodotti, sono stati scelti non i prodotti migliori, ma quelli pubblicati su riviste che ciascuno pensava fossero usciti sulla rivista migliore. E mi aspetto che pochissimi abbiano scelto libri o articoli su libri. In tutte le aree bibliometriche, più o meno la stessa cosa.

      3. Scrive Ichino. L’articolo citato in alcuni commenti “E’ uno dei tre articoli che io ho sottoposto alla VQR. È possibile che riceva un voto basso o alto a seconda del peso che i valutatori daranno alle critiche o alle conferme.” L’articolo , se non capisco male le regole del gev13, sarà sottoposto ad una procedura eccezionale. In area 13 la classe di merito di ogni articolo “dipende dalla classe di merito della rivista su cui è pubblicato”. L’articolo di Ichino è però pubblicato su una rivista non compresa nell’elenco del GEV, e quindi, probabilmente andrà a peer review. Ma questa non è la condizione normale.

      Scrive Ichino “Molto ci divide dalle posizioni di Roars.it, ma sulla trasparenza riguardo all’Anvur pensavamo di poter essere totalmente d’accordo.” Su ROARS gli appelli alla trasparenza si sono sprecati in questi mesi. Credo che abbiamo chiarito la questione sulla trasparenza dei dati elementari della vqr.
      Non mi sembra di aver letto prese di posizione di Ichino su nessuna delle richieste di trasparenza avanzata da Roars (nomine dei gev, nomine dei gruppi di lavoro, dati bibliometrici elementari per il calcolo delle mediane etc. etc.). Lo inviterei a farlo. Per verificare se siamo totalmente d’accordo sulla trasparenza.

  6. Caro Ichino perché non si spende anche solo un po’ per rendere trasparenti i metodi della Valutazione e i nomi dei valutatori….
    e dato che siamo in vena di citazioni classiche le ricordo questo verso di Giovenale: Quis custodiet ipsos custodes?

  7. Anch’io vorrei da Ichino, se possibile, una risposta alla domanda che per me (e per tutta la mia area)resta fondamentale: come puo’ essere lecito, giuridicamente e moralmente, pubblicare i risultati di una valutazione su singoli prodotti che sono stati selezionati con la garanzia che non ci sarebbero stati giudizi disaggregati? In molti settori della fisica abbiamo delegato completamente la selezione, come ha già spiegato FSL, agli enti di ricerca che dovevano massimizzare il risultato aggregato. La maggior parte di noi non avrebbe accettato questa strategia se avesse anche solo sospettato la possibilità che ne conseguissero giudizi individuali. Credevo che la non retroattività delle norme fosse un principio di civiltà giuridica condiviso da tutti. Comunque nche ammettendo (e non ne sono certo) che esistano aree in cui la pubblicazione dei giudizi individuali su tre lavori può dare informazioni significative sulla qualità scientifica dell’autore, è sufficiente che esista anche una sola area (e ho appena confermato che esiste) in cui la proposta potrebbe produrre effetti distorsivi gravi per rendere la proposta stessa del tutto impraticabile, indipendentemente da ogni altra considerazione su trasparenza, privacy e quant’altro

  8. Ichino siamo in attesa delle sue risposte…non prenda l’andazzo dell’Anvur e dei suoi collaboratori, che quando non sanno che dire fanno finta di distrarsi….
    inutile partecipare ad un forum se non si accetta il contraddittorio

    • I CV di Gontier Thierry e Silva Manuel Carlos non riportano l’elenco delle pubblicazioni, nemmeno di quelle più significative.

    • Non sono del settore e non conosco il sistema francese ma vorrei capire di più. Nel CV di Gontier Thierry visibile dal sito anvur c’è scritto 2002 : Habilitation à diriger des recherches à l’Université Paris X mentre sulla pagina istituzionale in Francia (Lyon) c’è scritto Habilitation à diriger des recherches non. C’è una spiegazione logica?

    • In effetti è strano. L’Habilitation à diriger des recherches (“Habilitation” per gli amici…) è il prerequisito per ottenere un posto da Professeur (posizione che il docente in questione ricopre). Forse è un semplice refuso.

    • Come fa l’ANVUR ad avere certificato (delibera del 26/10/2012) i requisiti di questi candidati se il CV messo in rete non soddisfa il formato richiesto dall’allegato F del DM 76/2012?

    • Spuntano di notte come i funghi. Abbiamo anche 02/A2 – FISICA TEORICA DELLE INTERAZIONI FONDAMENTALI e 13/A3 – SCIENZA DELLE FINANZE

  9. Queste sono le pubblicazioni online sul suo sito

    Articles en ligne :

    “From ‘political theology’ to ‘political religion’ : Voegelin and Carl Schmitt”
    http://www.voegelinview.com/voegelin-and-carl-schmitt.html

    “Le fétichisme de la norme : Eric Voegelin critique de Hans Kelsen”, revue en ligne Dissensus, n°1, 2008, Bruxelles
    http://popups.ulg.ac.be/dissensus/document.php?id=248

    “Intelligence et vertus animales : Montaigne lecteur de la zoologie antique”, A. Zucker et M.C. Olivi (dir.), Le Modèle animal, Rursus – Revue en ligne du LALIA, Université de Nice, 2007 n°2
    http://revel.unice.fr/rursus/personne.html?type=auteur&id=109

    “Nietzsche, Burckhardt et la “question” de la Renaissance”, Nietzsche et l’humanisme (dir. P. Caye, Y. Constantinidès et Th. Gontier), Noesis, n°10, automne 2006, p. 49-71
    http://noesis.revues.org/document422.html

    “Science de l’histoire ou métaphysique de l’esprit ? L’interprétation actualiste de la science nouvelle de Vico”, A. Tosel (dir.), La “Scienza nuova” de Giambattista Vico, revue Noesis, Nice, 2005, n°8, p. 81-98
    http://noesis.revues.org/document146.html

    “Noétique et poétique dans la Theologia platonica de Marsile Ficin”, Archives de philosophie, 2004/2, p. 5-22
    http://www.cairn.info/article.php?ID_REVUE=APHI&ID_NUMPUBLIE=APHI_671&ID_ARTICLE=APHI_671_0005

    • Nel suo CV ci sono moltissime pubblicazioni. Probabilmente non ha capito un accidenti della farraginosità delle richieste ANVUR.

  10. da fonte CUN ho saputo che Fantoni, in visita al CUN stesso, ha dichiarato che è molto probabile che non tutte le commissioni delle aree non-bibliometriche avranno un membro straniero, perché non sono pervenute sufficienti domande. Per le aree bibliometriche si dovrebbe essere al 95%.

  11. Riguardo alla mia proposta di trasparenza per la VQR dissentiamo: voi la ritenete dannosa io la ritengo comunque utile anche se ovviamente si poteva fare di meglio. Mi sembra inutile discuterne oltre

    Sulla trasparenza totale riguardo all’Anvur sono totalmente d’accordo con Baccini e l’ho detto dovunque mi sia stato possibile. Aggiungo anche che Roars ha fatto un lavoro utilissimo di controllo (ad esempio sulle liste di riviste) che personalmento ho molto apprezzato.

    Confermo che l’Anvur sta facendo un ottimo lavoro sulla VQR (soprattutto nel mio Gev 13 che e’ quello che conosco meglio), anche se ovviamente la perfezione non e’ di questo mondo. Ho anche affermato che ogni sistema di valutazione centralizzato e burocratico ha difetti che un sistema di mercato come quello USA non ha. Non ho ancora capito che sistema di valutazione individuale e dei dipartimenti Roars vorrebbe.

    Ritengo che sulle abilitazioni invece l’Anvur abbia fatto un lavoro molto piu’ criticabile. Ma e’ l’intera idea delle abilitazioni che per me e’ sbagliata.

    Riguardo al Gev 13, per quel che ne so a inizio maggio – 45 giorni prima della scadenza – era noto un elenco di tutte le riviste che sarebbero state classificate, con tutti gli indicatori bibliometrici (IF, AIS e h-index). Ciascuno poteva vedere se il proprio articolo aveva un alto o basso IF, AIS etc. E quindi poteva scegliere i migliori. Non era noto il cutoff per le classi, ma bastava mettere i migliori.

    Infine perdonatemi ma voi siete tanti, io sono da solo: Capisco che i forum servano per una interazione continua e ripetuta, ma in questo momento non posso partecipare oltre e quindi mi ritiro in buon ordine.

    Andrea Ichino

    • Ringrazio Andrea Ichino per essere intervenuto attivamente nel dibattito e, compatibilmente, con i suoi impegni, mi auguro che possa intervenire anche in futuro su questi ed altri temi.

    • Ringrazio Ichino per la riposta. Una chiosa. Anch’io ritengo come lui che la perfezione non sia di questo mondo. Ma ritengo anche il disegno della VQR sia un pessimo lavoro: mal disegnato e senza fondamenti. Addirittura peggiore del disastro delle abilitazioni. Per la VQR non ci voleva molto a fare meglio di così: sarebbe bastato adottare il peggiore modello di valutazione dipartimentale adottato altrove.

    • @ A. Ichino
      “Ho anche affermato che ogni sistema di valutazione centralizzato e burocratico ha difetti che un sistema di mercato come quello USA non ha.”

      Già, questo mi pare il punto di fondo. Secondo Ichino e non pochi altri, il sistema di selezione di mercato è, per definizione e con trascurabili eccezioni, ottimalmente efficiente. Se si desidera implementare un sistema di selezione che non sia di mercato si sta già commettendo un errore di fondo, un peccato originale. Se in ultima istanza il sistema di gestione centralizzata si rivela fallimentare o ingiusto, beh, la colpa è di chi non ha voluto un meccanismo di mercato. Il succo di questo genere di posizioni è che chi vi si colloca non è mai confutabile e può gioire per i malfunzionamenti del settore pubblico (e magari alimentarli), perché tanto ogni fallimento pubblico è solo un sostegno in più alle glorie del modello privatistico.
      Ovviamente si potrebbe far sommessamente notare che un sistema di selezione di mercato non risolve, ma semplicemente abolisce la questione della ‘giustizia’ od ‘ingiustizia’ di un esito selettivo. Non c’è più spazio né interesse a giudicare se una valutazione sia stata giusta o sbagliata, giacché “a giudicare sarà il mercato” ed il giudizio del mercato non accetta la sovrapposizione di parametri differenti dal successo od insuccesso di mercato.

    • Caro Andrea (Zhok), a mio parere hai messo il dito su una questione fondamentale, che purtroppo viene raramente discussa apertamente. Non mi riferisco alla questione della fede nel mercato efficiente. Il punto cruciale è la questione della giustizia: molti (me compreso) ritengono che la giustizia procedurale sia importante, ma in quanto strumentale al conseguimento di un fine ancora più importante, ovvero la selezione di insegnanti e ricercatori di alta qualità. Una procedura ingiusta scoraggia la competizione e dunque abbassa la qualità, come abbiamo ampiamente visto in passato. Disegnare una procedura per soddisfare la sete di giustizia di uno sparuto gruppo di persone (noi) mi sembra insensato e democraticamente discutibile: siamo pagati con soldi pubblici, e dobbiamo rispondere ai cittadini con un’alta qualità del servizio pubblico. Il resto è secondario (nota: dico secondario, non ininfluente.) Chi fa confronti con sistemi “di mercato” come quelli USA e UK semplicemente ritiene che talvolta sia preferibile sacrificare un po’ di giustizia (sappiamo bene che a Harvard o Oxford i CV dei candidati non sono trattati tutti allo stesso modo; sappiamo bene che moltissimi finiscono nel cestino senza che si arrivi neppure a leggere le loro pubblicazioni). Ma il sacrificio vale la pena se la qualità finale è effettivamente più alta che nei sistemi alternativi.
      Questo non significa che non sia impossibile ottenere alta qualità insieme a una maggiore giustizia procedurale. Forse si può, e sperimentare con sistemi diversi serve anche per scoprirlo. C’è chi, come Ichino, è pessimista. C’è chi è più ottimista. Ma è importante prima decidere quale obiettivo vogliamo raggiungere. Per molti di noi la qualità viene prima di tutto. Se non siamo d’accordo su questo, i nostri giudizi divergeranno su molte questioni specifiche, quando si tratterà di scegliere fra sistemi (imperfetti) alternativi.

    • Caro Francesco (Guala). Hai colto esattamente il punto. Questo è un tema dove la questione contingente delle scelte di reclutamento si colloca nel bel mezzo di questioni cardinali di filosofia morale. Non è qui, temo, il luogo per discuterne in modo adeguato.
      Non riesco però a trattenermi dal notare, di passaggio, che l’opposizione che tu sembri porre (ma forse mi sbaglio) tra una dimensione di ‘rule utilitarianism’, attenta alla bontà complessiva degli esiti, ed una dimensione ‘deontologica’, attenta alla bontà procedurale, non mi sembra cogliere appieno il problema in oggetto, così come affrontato per lo più su questo sito. Per lo più ci lamentiamo dell’inefficienza del meccanismo di scelta implementato da un punto di vista che non contesta né la violazione della mera forma, né solo l’inefficienza di sistema delle regole. Quando qui si parla di ‘ingiustizia’ si ha in mente un’idea di merito individuale non riconosciuto, che, proprio volendo, mi pare più affine alla ‘virtue ethics’, e che peraltro, a ben vedere, può condurre a regole utilitaristicamente buone.
      E’ in ogni caso del tutto vero che solo un chiarimento di ciò che si ritiene essere il Valore della selezione in oggetto può fornire la base per districare la bontà o meno delle soluzioni.

  12. Lo dico con molta franchezza. Non ci troviamo di fronte a celebri studiosi. Continuiamo a farci del male, da provinciali. L’unico “Straniero” che mi piacerebbe avere in commissione è il protagonista del romanzo di Albert Camus. Lui ce l’ha la “chiara fama”.

  13. Se avete letto il solito articolo sul sole 24 ore di domenica, solito nel senso che e’ il solito w l’anvur e tutto il contorno, allora vi sarete scoraggiati. Ma io dico che bisogna continuare a fare di tutto per smontare questo baraccone orwelliano.

    • alessandro bellavista: la guerra di usura logora…ma staremo fermi come torre che non crolla..
      tra l’altro in quell’articolo il Prof. Graziosi si è contraddetto sul ruolo dei Gev per l’ennesima volta….

  14. ICHINO: “la perfezione non e’ di questo mondo….”
    dopo aver apprezzato si altro concetto, m’illumino d’immnenso….
    Si poteva anche aggiungere come disse un componente dell’Anvur: “Il decreto sulle Abilitazioni è un esperimento sociale”.
    quanti sinistri ricorda, a me storico, l’espressione “esperimento sociale”…..

    • In effetti, esperimento sociale sa di Lebensborn o di Pol Pot e cosi via. Comunque, tra i non bibliometrici l’area 11 con il suo gev ha reso le classifiche di rivista pari al giudizio di un peer. Da noi in area 12 non ce l’hanno fatta, ma lo sognano ancora, come alcuni vanno dicendo in giro. La vqr puo’ offrire dati distorti. Molti hanno inviato prodotti tenendo conto della classificazione. Quindi mando un prodotto di fascia A e non B, anche se per l’area 12 era scritto che la classifica era un esperimento (sociale!). Perche’ non ho ben capito e mi voglio mettere al sicuro. Anche se quello di fascia B era meglio di quello di fascia A. Il rischio e’ che alla fine della vqr dicano: lo vedete, avevamo ragione: le riviste migliori erano quelle indicate da noi! Questo e’ un aspetto che va considerato ed un rischio da evitare. Ricordo che in area 12, la classificazione e’ stata fatta solo sulla valutazione soggettiva della reputazione delle riviste: quindi, con la palla di vetro ed altro..

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.