Il Gev 13 – Scienze economiche e statistiche – ha delegato a Google la valutazione della qualità del lavoro dei ricercatori italiani. Perché il Gev 13 – e soltanto il Gev 13 in ambiente VQR – si affida a Google, quando sappiamo che nel calcolo dell’h-index di Google sono conteggiati come scientifici scritti che (secondo l’Anvur e secondo il buon senso) scientifici non sono? Forse perché premia le riviste i cui autori sono particolarmente attivi nella pubblicizzazione di versioni provvisorie dei loro articoli su archivi web quali ad esempio RePec o Social Science Research Network? Le risposte ufficiali del GEv13 sono degne di essere condivise, per apprezzarne il rigore metodologico.
Il Gev 13 – Scienze economiche e statistiche – ha delegato a Google la valutazione della qualità del lavoro dei ricercatori italiani.
Non in via esclusiva, per ora. Google, infatti, non valuterà monografie e capitoli di libro. Ha valutato parte delle riviste dell’area 13, e la valutazione di Google, per proprietà transitiva (definita dal Gev 13 “analisi bibliometrica”), sarà attribuita agli articoli pubblicati su quelle riviste. Non automaticamente, in realtà, ma sulla base del giudizio esperto del Gev, a sua volta basato (repetita iuvant) sulle competenze dei membri del Gev[1]. Ricapitolando, la classe di merito/voto della rivista, e quindi dell’articolo che vi è pubblicato, dipende da Google, a meno che un membro del Gev non decida che l’articolo vale più o meno di quanto dice Google.
Perché il Gev 13 – e soltanto il Gev 13 in ambiente VQR – si affida a Google? Ufficialmente, per «costruire una banca dati comprensiva della gran parte delle riviste scientifiche in cui pubblicano ricercatori dell’Area»[2]. In sostanza, i database Scopus e ISI WoS (gli unici utilizzati dagli altri Gev bibliometrici, e gli unici espressamente richiamati nel Bando VQR) includono circa 1.800 riviste rilevanti per l’area 13, ma i ricercatori italiani di area 13 pubblicano anche (prevalentemente?) altrove. Google ‘vede’ e attribuisce un numero[3] (h-index) ad altre 892 riviste di area 13. Grazie a Google, il Gev 13 ha potuto portare a 2.731 il numero di riviste indicizzate (ponderatamente, da Scopus e/o da ISI WoS, o no, da Google) e applicare così la “valutazione bibliometrica” ad un maggior numero di articoli (nella scorsa VQR, il 62% dei ‘prodotti’).
Quanti articoli dei ricercatori italiani saranno valutati da Google? Nella “lista delle riviste” creata dal Gev 13, le riviste indicizzate esclusivamente da Scopus e ISI WoS sono appena 985. Altre 838 sono indicizzate da Scopus ma, sciaguratamente, non da ISI WoS. Il Gev ha chiesto a Google di riempire le caselline lasciate vuote da ISI WoS, e Google l’ha fatto, generando per il 44% (quarantaquattro per cento) delle riviste, classi di merito diverse da quelle emerse da Scopus, nei due terzi dei casi peggiori[4]. Poco male per gli autori che vi hanno pubblicato: potranno usufruire, se più benevola, della valutazione di Google, oppure rigettarla, se più malevola, ricorrendo alla classe di merito emersa da Scopus. Una possibilità di scelta non concessa agli autori che hanno pubblicato sulle 892 riviste ‘indicizzate’ e classificate esclusivamente da Google.
Non concessa, in particolare, a coloro che hanno pubblicato su riviste italiane. Delle 155 riviste italiane incluse nella lista, ben 127 (l’82%) sono state classificate dal Gev (cioè decretate di livello Eccellente [nessuna], Elevato [nessuna], Discreto [5], Accettabile [30 riviste, peso/voto 0,1] o Limitato [92 riviste, peso/voto 0]) attenendosi al giudizio esperto di Google.
Ad esempio, accogliendo il giudizio esperto di Google, che le attribuisce un h-index = 1 (e ignorando il parere della Società Italiana degli Storici dell’Economia, che la colloca in fascia A), il Gev 13 ha classificato Imprese e storia in “E”, impatto Limitato, peso 0 (zero) agli articoli pubblicati su Imprese e storia. Voto zero, sempre assecondando Google, anche agli articoli pubblicati su Società e storia, sulla Rivista italiana di agricoltura, sul Pensiero economico italiano, su Studi storici Luigi Simeoni, eccetera.
Difficile dire che trattamento sarà riservato agli articoli pubblicati su riviste cui Google assegna un h-index = 0, o che Google non ‘indicizza’ affatto, riviste che, per questa ragione, non compaiono nella “lista delle riviste” del Gev[5]. Ufficialmente, gli articoli dovrebbero essere sottoposti a peer review ma, «in alternativa», «sussistendo le competenze» all’interno del Gev, potrebbero essere valutati dallo stesso Gev[6]. Che, a meno di rinnegare se stesso e il giudizio esperto di Google cui ha consegnato in via esclusiva gli articoli pubblicati su 900 riviste, dovrebbe valutarli zero[7].
Delle “caratteristiche” e dei “limiti” dell’h-index di Google qualcosa si sa, anche grazie a Roars[8]. A mio avviso, però, nel caso della delega a Google immaginata e attuata dal Gev 13, e, più in generale, ai fini di una classificazione di riviste, articoli, autori, argomentare su limiti e caratteristiche è fuorviante, perché promuove a indice una ‘cosa’ che indice non è, per la semplice, manualistica ragione che Google (al contrario di Scopus/ISI WoS) non definisce il database di riferimento. Non dice quali dati include e quali esclude nella costruzione dei suoi ‘indici’. Ex post, possiamo esercitarci nella comparazione tra Scopus/ISI WoS e Google, inferire copertura, “caratteristiche” e “limiti” dei numeri che dà Google, ma, ex ante, cosa sia l’h-index di Google non lo sappiamo.
Ciò che sappiamo con certezza è che l’h-index di Google reputa scientifici scritti che (secondo l’Anvur e secondo il buon senso) scientifici non sono, e premia (perché ‘vede bene’) le riviste i cui autori sono particolarmente attivi sui media on line, o nella pubblicizzazione di versioni provvisorie dei loro articoli, o nell’upload dei loro contributi su archivi web quali RePec, ResearchGate, Social Science Research Network.
Il Ministero della ricerca, l’Anvur, i direttori e componenti delle riviste scientifiche così grossolanamente classificate, gli autori di articoli pubblicati su quelle riviste, sono consapevoli dell’inattendibilità dei ‘dati’ sui quali è basata la classificazione di qualità delle riviste (inattendibilità che i modelli di regressione del Gev non sanano, e che non è “alleviata” dalle “ampie classi di merito” in cui sono collocate le riviste[9])? Sono consapevoli dei possibili profili di illegalità, certo del ridicolo, iscritti nella delega a Google della valutazione di qualità della ricerca italiana?
Lo scorso 18 dicembre ho posto queste domande al Gev 13. Ho scritto ai componenti del sub Gev di Economia e Storia economica, alla coordinatrice del Gev 13, Graziella Bertocchi (già componente del Gev 13 nella VQR 2004-2010, autrice di paper e seminari sui “criteri bibliometrici” del Gev 13), e al presidente dell’Anvur, Stefano Fantoni.
Ho sottoposto loro una (invero poco esperta) dimostrazione dell’inattendibilità dell’indice h di Google ai fini di una classificazione delle riviste (h5.docx, qui in calce). In sintesi, portavo ad esempio il caso della Rivista di storia economica, il cui h-index secondo Google è pari a 6. Working paper, articoli di giornale, diffusa presenza su archivi web largamente contribuiscono all’h-index della Rivista che, depurato dei “falsi positivi”, sarebbe pari a 3. Notavo anche che, grazie a quel posticcio indice 6, Rivista di storia economica avrebbe potuto essere doppiamente premiata. In primo luogo da una classificazione iniziale migliore, ad esempio, di Histoire, économies et société, il cui h-index pari a 3, discendendo da citazioni ricevute in sedi proprie, non è, invece, altrettanto posticcio (solo Google sa perché). In secondo luogo, grazie a quel 6, avrebbe potuto beneficiare della ‘clausola patriottica’ predisposta dal Gev 13, in virtù della quale almeno 20-25 riviste italiane devono necessariamente comparire nelle prime tre classi di merito (se non per merito loro, promosse d’autorità dal Gev). In effetti, la classificazione delle riviste pubblicata dal Gev il 22 gennaio ha confermato in parte le mie ipotesi: Rivista di storia economica è stata patriotticamente promossa a Discreta (0,4), mentre Popolazione e storia, Google index 4, è rimasta solo Accettabile (0,1), e gli autori che hanno pubblicato su Histoire, économies et société potranno scegliere se farsi valutare come Accettabili (0,1) o come Limitati (0).
Da inesperta, dunque, ho chiesto agli esperti del sub Gev, alla coordinatrice del Gev, al presidente dell’Anvur di illuminarmi, di dirmi se i miei dubbi sull’opportunità di delegare a Google la valutazione di qualità della ricerca (dubbi che peraltro devono aver investito anche l’Anvur[10]) erano o no fondati. La coordinatrice mi ha risposto così:
La risposta della coordinatrice del Gev 13 è, suo malgrado, eloquente, m’è parso giusto non restarne la sola depositaria. Resto, invece, ancora in dubbio sul rigore metodologico (Bando VQR, Art. 2.6.1) dell’utilizzo di Google.
Per completezza, la mia replica ai componenti e alla coordinatrice del Gev. E un’informazione: non trasmetterò alcun ‘prodotto’ al Gev 13.
Appendice, Sull’utilizzazione dell’indice h di Google Scholar: h5
[1] Criteri del Gev 13, p. 9 http://www.anvur.it/attachments/article/856/criteri%20GEV%2013_italiano%200~.pdf
[2] Rapporto finale del Gev 13, VQR 2004-2010, p. 7 http://www.anvur.org/rapporto/files/Area13/VQR2004-2010_Area13_RapportoFinale.pdf
[3] Più esattamente, come si dirà, un numero ≠ 0.
[4] In dettaglio. L’imputazione effettuata dal Gev, sulla base dell’h-index di Google, degli indici mancanti IF5 e AIS di ISI WoS, e la conseguente classificazione delle riviste rispetto a quegli indici, ha generato: per 129 riviste (15%) una classe di merito più elevata della/e classe/i attribuita/e sulla base degli indici IPP e SJR di Scopus (ad esempio: C C D D oppure C C D E); per 105 riviste (13%) una classe più bassa di quella/e attribuita/e sulla base degli indicatori IPP e SJR di Scopus (ad esempio: C C B B oppure C C A B); per 138 riviste (16%) una classe uguale alla classe più bassa tra le due attribuite sulla base degli indici IPP o SJR di Scopus (ad esempio: C C B C), vale a dire che, anche in questo caso, seguendo Google, alla rivista sarebbe stata attribuita una classe inferiore se non fossero stati disponibili gli indici Scopus.
Anche sulla base dei veri indici ISI WoS e Scopus sono emerse classi di merito diverse, ma con una frequenza molto più bassa: i tre casi si verificano, nell’ordine, per 34 (3%), 34 (3%) e 89 (9%) riviste su 985. Inoltre, al contrario di Google, il vero indice ISI WoS determina un quarto caso più favorevole alle riviste: due classi diverse, una delle quali più alta della/e classe/i attribuita/e sulla base degli indicatori IPP e SJR di Scopus (ad esempio: C B C C oppure C B C D). Ciò accade per 74 riviste (7%).
Per quanto riguarda, infine, le 16 riviste indicizzate, invece, solo da ISI WoS, per la quali il Gev, sulla base dell’h-index di Google, ha imputato gli indici Scopus, i tre casi sopra descritti si verificano, rispettivamente, per 4, 1 e 2 riviste (44% dei casi).
[5] Criteri del Gev 13, p. 12.
[6] Criteri del Gev 13, p. 10.
[7] Il comportamento di voto del Gev 13, edizione 2004-2010, in https://www.roars.it/lo-strano-caso-delle-concordanze-della-vqr/
[8] https://www.roars.it/google-scholar-soluzione-o-problema/; https://www.roars.it/primo-capitolo-e-il-suo-h-index/; https://www.roars.it/scholar-search-allinferno-andata-e-ritorno/, ecc.
[9] Comunicato del Gev 13 del 22 gennaio 2016, p. 4
http://www.anvur.it/attachments/article/856/GEV13%20Comunicato%20del%2022%20g~.pdf
[10] L’Anvur nell’estate del 2014 ha bandito un “concorso per idee” su Potenzialità e limiti di Google Scholar per la costruzione di indicatori validi di pubblicazioni nei settori non bibliometrici. http://www.anvur.org/attachments/article/672/bando.pdf
Non voglio pensare male ma…se si riempie una data SC con riviste a basso JM, si abbassa di conseguenza la soglia per andare nei percentili piu’ alti..
Buongiorno a tutti,
articolo interessante nel quale tutti, a partire dai GEV 13, dimenticano un particolare fondamentale:
l’Area 13 è un’area non bibliometrica…
E’ quindi evidente che il criterio principe per valutare un articolo su rivista resta la lettura dello stesso…
In un’area non bibliometrica gli indici bibliometrici (tutti) hanno infatti solo il compito di aiutare nella valutazione, ma non possono essere che meramente indicativi…
E’ a questo proposito strano che si sia perso tanto tempo per stabilire e discutere di indici che in un’area non bibliometrica possono avere solo un ruolo indicativo…
A meno che qualcuno pensi di valutare esclusivamente con indici bibliometrici i prodotti dell’area 13 che però non è bibliometrica…
Forse le domande da porre ai GEV 13 dalla gentile collaboratrice di Roars erano altre… e sarebbero da porre anche ai vertici dell’Anvur…
Paolo Tedeschi
L’area 13 era non bibliometrica per ASN, ma bibliometrica per VQR, tanto è vero che nella precedente edizione ha partecipato all’esperimento che doveva stabilire il grado di concordanza tra valutazione “peer” e valutazione “biblio”. Un esperimento la cui analisi da parte dell’Anvur desta non poche perplessità: https://www.roars.it/lo-strano-caso-delle-concordanze-della-vqr/
Nella VQR, già dalla volta scorsa, Area 13 ha goduto di un privilegio speciale. Diventare bibliometrica. Ma con una bibliometria tutta speciale. Direi che le domande da porre per area 13 sono molte. E più o meno le abbiamo fatte quasi tutte la volta scorsa. Daniela Ciccolella solleva un punto specifico che a mio parere è molto importante (e nuovo).
Grazie mille all’autrice del post sul GEV 13.
Mi chiedo come sia possibile il posizionamento di alcune riviste in classi diverse a parità di ”criteri” (ma criteri è una parola forte) con altre.
Porto qui nel seguito qualche esempio:
1) Sinergie
“REVISTA DE ADMINISTRACAO”, “sinergie”, “Society and Business Review”: queste tre riviste hanno le stesse metriche (IF5, AIS, IPP, SJR, h-index), ma come per magia Revista de Administracao si ritrova con 4 rating D, sinergie con 4 rating C e Society and Business con 3 D e 1 C
2) Metron
“metron” e “monte carlo methods and applications” hanno lo stesso IF5, lo stesso AIS, lo stesso h-index, ma IPP e SJR di Metron sono minori. Indovinate un po’…
Metron porta a casa 4 rating C e Montecarlo 4 D.
3) Ricerche di matematica
“ricerche di matematica” e “wseas transactions on systems” hanno lo stesso IF5, lo stesso AIS, lo stesso h-index, ma IPP e SJR di “Ricerche di Matematica” sono minori. Non vi tedio con l’indovinello, il risultato è uguale a quello di Metron.
Un tempo is parlava di internazionalizzazione delle pubblicazioni, il GEV 13, invece, sembra voler promuovere l’ottica opposto… oppure vuol promuvere chi ha già pubblicato sulle riviste che, come nei tre casi mostrati sopra, hanno visto magicamente lievitare il proprio rating?
drin drin
“Pronto, è il Gev 13? Ciao, sono Sinergie. Non ho indici Scopus/ISI. Sulla base del mio Google-index=10 mi hai classificato D D D C (cfr. lista riviste 14 gennaio). Ora, non mi pare affatto ragionevole che Azienda pubblica, che come me non ha indici Scopus/ISI, e che ha un Google-index=6, e che quindi avresti dovuto classificare D D D D, l’hai promossa a C C C C (cfr. sempre lista riviste 14 gennaio) perché vuoi 25 riviste italiane nelle prime tre classi di merito. Vuoi promuovere e promuovi, ma allora voglio pure io C C C C”. (e così sia: lista riviste 22 gennaio, Sinergie C C C C)
Society and Business Review è rimasta a D D D C perché non è italiana, o perché non ha un telefono.
Perchè, secondo te sarebbe vero che Scopus/ISI WoS “definisce il database di riferimento”? Quanti errori contengono i loro database? E in base a quali criteri sono scelte le riviste di riferimento? E le riviste che scompaiono ed appaiono ogni anno senza nessuna motivazione? I dati di Scopus/ISI non sono riproducibili, è stato dimostrato. Il tuo articolo spiega solo che è impossibile dare un giudizio su persone, istituzioni e riviste usando criteri bibliometrici. Google, Scopus, ISI pari son… Almeno, su Google si trova tutto o quasi. Io sono un matematico (settore più “bibliometrico” di così…) e metà dei miei articoli non compaiono su Scopus/ISI. E i conflitti di interesse? Sono gli stessi editori che determinano gli indici… Andiamo, basta, nè Gogle, nè ISI nè Scopus!
Sono d’accordo: “Né Google né ISI né Scopus!”, tutti (a non dire altro) fisiologicamente incapaci di rappresentare la ricerca ‘in italiano’, per ragioni che pure i sassi conoscono, e quindi (per dirne una) fisiologicamente in contraddizione con il bando VQR, secondo il quale il livello Eccellente deve poter essere attribuito anche ad una pubblicazione con “forte impatto nella comunità scientifica di riferimento a livello … nazionale”. Insomma, ragionare sul “più peggio” degli indici non implica l’elogio dei “meno peggio”.
Per risponderti nel merito, se fosse vero quello che dici, che i dati Scopus/ISI non sono riproducibili, se fosse vero cioè che Scopus e ISI sono “il più peggio” tale e quale a Google (affermazione che la coordinatrice del Gev 13 non esiterebbe a sottoscrivere…), resterebbero ugualmente in piedi tutte le mie riserve su Google, ma proprio uguali. Anzi no, non proprio uguali: rimuovi i due riferimenti ‘favorevoli’ che ho fatto ai database Scopus/ISI e correggi in peggio il giudizio su chi, pur di avere indici Scopus/ISI, li “imputa” via Google.
Grazie a te. Sono completamente d’accordo.
Che i dati non siano riproducibili l’hanno scritto Rossner, M., Van Epps, H., Hill, E. “Show me the data”. Journal of Cell Biology 179 (6): 1091–2 (2007)
Gli autori avevano trovato delle discrepanze su certi dati (fino al 19% !) e “When we requested the database used to calculate the published impact factors… Thomson Scientific sent us a second database. But these data still did not match the published impact factor data. This database appeared to have been assembled in an ad hoc manner to create a facsimile of the published data that might appease us. It did not. It became clear that Thomson Scientific could not or (for some as yet unexplained reason) would not sell us the data used to calculate their published impact factor. If an author is unable to produce original data to verify a figure in one of our papers, we revoke the acceptance of the paper. We hope this account will convince some scientists and funding organizations to revoke their acceptance of impact factors as an accurate representation of the quality—or impact—of a paper published in a given journal.”
Certo, io non mi sognerei mai di usare un indice numerico basato su Google (ma nemmeno su altre banche dati), però ormai mi capita sempre più spesso di usare Google anzichè le banche dati. Si trova tutto! Poi, la metà o un terzo dei risultati sono da scartare, ma *io so* cosa scartare :) Certo, in alcuni campi umanistici la copertura è ben lontana dall’essere completa. E, comunque, almeno Google usa un page ranking. Ma ci pensi? Per ISI/Scopus essere citati da un “Einstein” vale come essere citati da una qualunque mezza calzetta. Al solo pensiero inorridisco!
Buongiorno bis,
non sono stato chiaro, sorry.
Volevo solo sottolineare che tutta l’area 13 resta non bibliometrica fino a quando il MIUR non deciderà il contrario.
Il fatto che l’Anvur consenta ai GEV 13 di utilizzare l’analisi bibliometrica per gli articoli in rivista non significa che quest’area sia diventata bibliometrica e che quindi sia corretto l’uso esclusivo di tali indici.
A meno che non siano cambiate le regole e l’Anvur abbia ottenuto la potestà di modificare le norme: se invece le regole non sono cambiate anche un articolo su rivista non può essere valutato solo in base a criteri bibliometrici.
Se una persona che opera nell’area 13 viene valutata nell’ASN secondo criteri non bibliometrici (anche le bozze della nuova ASN ora scomparsa/rinviata inserivano l’area 13 nelle aree non bibliometriche) perché può essere valutata nella VQR con criteri bibliometrici su una parte delle proprie pubblicazioni, ovvero gli articoli in rivista?
Se in area 13 alcuni SSD desiderano diventare bibliometrici perché non si sono creati due GEV come accaduto in area 11?
Ed infine, vale anche per altri settori, ma in questo caso il problema è ancora più evidente: è normale valutare una persona sui prodotti 2011/14 (con le ASN 2012 e 2013 che valutavano tutte le pubblicazioni secondo criteri non bibliometrici) con regole stabilite tra la fine del 2015 e l’inizio del 2016 in cui si decide che gli articoli in rivista passano alla valutazione bibliometrica?
Ecco alcuni esempi di altre domande che si possono porre ai Gev 13 e all’Anvur (uso il presente così è chiaro che non critico l’operato di chi ha scritto).
Paolo Tedeschi
Il lavoro GEV di area 13 è lo specchio di un problema enorme tutto interno all’area dove in maniera evidente esistono macrosettori bibliometrici (13A e 13D) e altri non bibliometrici (13B e 13C).
La composizione del Gev spiega bene tutto questo dove l’anima bibliometrica è in larghissima maggioranza, quindi ecco servita questa modalità unica nel suo genere con un bel mix tra Scopus-ISI-GScholar: una frittata.
Ci sono significative problematiche a giustificare quanto fatto:
– prendere in considerazione riviste con GScholar a 5 anni di 10, con assenza della medesima su Scopus e ISI, significa lasciare il tutto in mano ad ampie manipolazioni, dato che le autocitazioni della rivista sono state ritenute buone (è sufficiente citare sempre qualcosa dell’anno prima per avere i numeri)
– ci sono riviste impattate finite nella stessa classe di riviste italiane che vivono solo gscholar (e di tanti falsi positivi!) e di un upgrade automatico
– l’incomprensibile imputazione dei valori in corsivo, non si sa bene che robustezza possa avere una cosa del genere
– dulcis in fundo, un’area non bibliometrica che dice sostanzialmente che per una rivista classificata B-B-B-A l’autore può scegliere l’indicatore più favorevole ovvero A, paragonandola alle riviste con quadrupla A…incomprensibile. Conta la rivista o il prodotto?
Sarebbe carino comprendere se il concetto di cravatta, fantasticamente introdotto da Roars, abbia un senso qui o meno.
Penso che sarebbe stato meglio trattare l’area come la 11.
Direi che in atea 13 sono permesse solo cravatte gradite al gev. Diciamo cravatte su misura per il gev e gli amici del gev.
E se no il gev non sarebbe il gev
E se no il gev non sarebbe il gev. Questo succede da anni da noi, con le commissioni di valutazione di Ateneo,nominate da amici per gli amici.insomma la festa dell’amicizia.
Mentre si elucubra sui gev, sulle aree, mentre si danno i numeri, mentre tutto il mondo accademico e non solo ripete che è tutta una immensa buffonata, intanto le università italiane (rettori in testa, che farebbero bene a non prenderci per i fondelli con nuove “primavere”) stanno accettando l’ennesimo ricatto. Ricatto ormai strutturale che, a cascata, si traduce nei ricatti degli esecutivi universitari contro gli abilitati (soprattutto quelli all’associazione) che volessero partecipare alla protesta legittima (posto che in questo paese si possano avere ancora idee diverse e manifestarle). Siamo ormai a un altro livello rispetto a quello degli errori di calcolo, o quello meramente “logistico”.
Bisognava semplicemente rifiutarsi in blocco di partecipare a questo teatrino, mantenere il punto e restituire all’università la dignità di essere la testa pensante di un paese “civile”.
Non lo si vuole fare, per l’ennesima volta, e ne pagheremo tutti le conseguenze (lavoratori e fannulloni, eccellenze e mediocrità, onesti e disonesti, come sempre accade in questo paese incivile)
È chiaro che arriverà un’altra proroga perché non ce la si fa a chiudere in tempo entro il 29 febbraio, come conferma il Presidente della CRUI, fosse anche solo per motivi tecnici (https://www.roars.it/non-ci-sono-i-tempi-tecnici-ancora-tante-falle-presidente-crui-conferma-necessita-della-proroga-vqr/).
Pertanto, non si rischia nulla a starsene con le mani in mano anche oltre le scadenze interne degli atenei.
Le notizie che arrivano di ora in ora mostrano che la protesta ha tutto il potenziale necessario per impedire la partenza della VQR (o per renderla inutilizzabile se ci si ostinasse a farla partire).
L’opposizione diffusa funziona come dimostrato dalle prime timide reazioni della CRUI che comincia a dare un cenno di interessamento ai problemi sollevati dagli obiettori, ma che si ostina a non parlare della protesta nei suoi comunicati.
La reazione dell’opinione pubblica non è ostile (vedi interviste su Corriere e Stampa a un obiettore non tacciabile di paura di essere valutato come Giuseppe Mingione e l’inatteso sostegno di un campione delle retoriche antiuniversitarie come Oscar Giannino: https://www.roars.it/una-protesta-che-a-me-sembra-fondata-anche-oscar-giannino-solidale-con-il-blocco-della-vqr/).
Nulla da perdere, tutto da guagnare: mettersi a conferire i prodotti proprio ora è un’opzione che evoca scenari da Sindrome di Stoccolma (o da Tafazzismo all’ultimo stadio).
Il tafazzismo è, purtroppo, imperante fra molti rettori, direttori aspiranti rettori e molti colleghi. Ecco cosa mi preoccupa quando sento molti di questi ultimi che, ligi al dovere, hanno già svenduto i loro “prodotti”. Dico “molti” proprio per non generalizzare e per difendere soprattutto i più deboli e ricattabili (e i ricatti ci sono, sono velati, ma sono quotidiani).
Comunque, ringrazio De Nicolao per la risposta, per l’impegno e spero abbia ragione