Nonostante i pesanti tagli ai finanziamenti e al personale, la ricerca italiana negli anni post-riforma ha compiuto una sorta di miracolo: il suo impatto, misurato in termini di citazioni e produttività, anziché diminuire è addirittura aumentato. Secondo un rapporto stilato nel 2016 da SciVal Analytics per il governo britannico, le pubblicazioni italiane, non solo hanno superato quelle statunitensi in termini di impatto citazionale pesato (field-weighted citation impact), ma hanno raggiunto il secondo posto nel G8, appena dietro al Regno Unito. Sempre secondo lo stesso report, “based on current trajectories, [Italy is] set to overtake the UK in the near future“. La spiegazione?La valutazione migliora l’università” aveva detto nel 2016 Andrea Graziosi, Presidente dell’Anvur, l’agenzia nazionale di valutazione della ricerca. Tuttavia, diversi studi stanno mostrando che l’uso massiccio della bibliometria nella valutazione della ricerca promuove comportamenti opportunistici da parte dei ricercatori. È appena uscito su PLOS ONE l’articolo “Citation gaming induced by bibliometric evaluation: a country-level comparative analysis” (A. Baccini, G. De Nicolao, E. Petrovich) che introduce e studia un nuovo indice bibliometrico, l’Inwardness (“autoreferenzialità”), sensibile agli effetti su scala nazionale delle autocitazioni e dei club citazionali. A partire dal 2010, anno della riforma universitaria, c’è un brusco cambio di marcia nell’auto-referenzialità italiana, che mette il turbo, distaccandosi nettamente dai trend degli altri paesi del G10. Sembra esserci una sola spiegazione plausibile: la necessità di raggiungere gli obiettivi bibliometrici fissati da ANVUR ha creato un forte incentivo all’autocitazione e alla creazione di club citazionali. Tali comportamenti sono diventati così pervasivi da modificare il valore di Inwardness dell’intero Paese, sia globalmente che nella maggior parte dei settori. Così stando le cose, l’incremento dell’impatto citazionale italiano registrato nei “country ranking” è un miraggio, dovuto a un colossale doping citazionale collettivo.

Link all’articolo: https://journals.plos.org/plosone/article?id=10.1371/pone.0221212

 

1. Il paradosso italiano

Com’è noto, la riforma universitaria introdotta nel 2010 con la legge Gelmini (L240/2010) ha profondamente ridisegnato il sistema della ricerca italiano. Nel nome dell’uso efficiente dei fondi pubblici, i finanziamenti per la ricerca hanno subito tagli severi, il turnover è stato fortemente ridimensionato ed è stato messo in moto un complesso sistema di valutazione della ricerca, gestito dalla neonata Agenzia per la Valutazione della Ricerca e dell’Università (ANVUR). Com’è noto, spina dorsale di questo sistema sono gli indicatori bibliometrici che, da quel momento, svolgono un ruolo fondamentale nell’accademia. Non soltanto sono usati per valutare la performance dei dipartimenti e degli atenei, ma sono entrati anche nelle procedure di reclutamento e promozione dei ricercatori. Ad oggi, superare le cosiddette “soglie bibliometriche”, che nelle scienze dure sono calcolate sulla base di citazioni, pubblicazioni e h-index, è condizione necessaria per ottenere l’Abilitazione Scientifica Nazionale (ASN) nei settori scientifici.

Tuttavia, nonostante i pesanti tagli ai finanziamenti e al personale, la ricerca italiana negli anni post-riforma ha compiuto una sorta di miracolo: il suo impatto, misurato in termini di citazioni e produttività, infatti, anziché diminuire è addirittura aumentato.

Secondo un rapporto stilato nel 2016 da SciVal Analytics per il governo britannico, nel 2012 le pubblicazioni italiane hanno superato quelle statunitensi in termini di impatto citazionale pesato (field-weighted citation impact), e l’Italia ha raggiunto il secondo posto nella classifica dei Paesi G8, appena dietro al Regno Unito[i]. Sempre secondo lo stesso report, “based on current trajectories, [Italy is] set to overtake the UK in the near future[ii]. Anche Nature, in un recente editoriale, ha riconosciuto il continuo miglioramento della performance italiana, nonostante il basso livello di spesa pubblica in ricerca e sviluppo (1.3%), ampiamente al di sotto della media europea.[iii]

2. Affama la bestia, schiocca la frusta bibliometrica

Tali risultati sembrano dimostrare che l’Italia sia diventata, grazie alla riforma, una specie di tigre della scienza europea. Tagli alla spesa, uniti al pervasivo uso di misurazioni bibliometriche, sembrerebbero essere la ricetta giusta per conquistare le vette dei ranking internazionali.

Secondo ANVUR, “Italy is one of the international best practices in the design and implementation of research evaluation exercises. In particular, the use of bibliometrics is at the forefront for how it deals with the problems of comparison between disciplines and for the sophisticated use of multiple indicators“. L’Agenzia mette in evidenza il crescente innalzamento della ricerca italiana verso elevati standard scientifici: “After a first phase in which autonomy was accompanied by centrifugal tendencies, in recent years Italian universities have shown a gradual convergence towards higher standards both in teaching […] and in the research activity.[1]

Eppure, prima di proporre l’Italia come un modello vincente, da esportare magari in altri paesi europei e nei giganti emergenti della scienza del XXI secolo, Cina e India, è necessario considerare attentamente il lato oscuro del successo italiano.

3. Una mascherata bibliometrica

Sono sempre di più gli studi che mostrano come l’uso massiccio della bibliometria nella valutazione della ricerca induca comportamenti opportunistici da parte dei ricercatori. Di recente, uno studio di Ioannidis e colleghi ha rivelato che, tra i ricercatori più citati al mondo, ce ne sono alcuni che ricorrono in modo massiccio e sistematico all’autocitazione per far lievitare i propri indicatori. [iv]

Riguardo all’Italia, lavori recenti hanno rilevato un aumento dell’uso strategico delle autocitazioni all’interno di alcuni settori scientifici[v].

È appena uscito su PLOS ONE l’articolo “Citation gaming induced by bibliometric evaluation: a country-level comparative analysis” (A. Baccini, G. De Nicolao, E. Petrovich)[vi] che introduce e studia un nuovo indice bibliometrico, l’Inwardness (“autoreferenzialità”), sensibile agli effetti su scala nazionale delle autocitazioni e dei club citazionali. Tale indicatore misura quante delle citazioni totali ricevute da un Paese provengano dal Paese stesso, cioè quanto dell’impatto totale di un Paese sia dovuto a citazioni “endogene”. In questo modo, l’indicatore è sensibile sia alle autocitazioni che ai cosiddetti “club citazionali” intra-nazionali (gruppi di connazionali che scambiano opportunisticamente citazioni) in quanto entrambi i tipi di citazione provengono dal Paese stesso.

Per la prima volta, viene mostrato chiaramente che la recente impennata dell’impatto citazionale dell’Italia è essenzialmente un miraggio, prodotto da un cambiamento del comportamento citazionale dei ricercatori italiani dopo la riforma.

Confrontando gli andamenti nel tempo dell’Inwardness dei Paesi del G10, a partire dal 2010, anno della riforma universitaria, c’è un brusco cambio di marcia nell’auto-referenzialità italiana, che mette il turbo, distaccandosi nettamente dai trend degli altri paesi del G10 nella maggior parte dei settori di ricerca. Dietro gli USA, nel 2016, l’Italia diventa, globalmente e nella maggior parte dei campi di ricerca, il Paese con l’Inwardness più alta, a fronte del più basso indice di collaborazioni internazionali.

La spiegazione più probabile di questo fenomeno è che le nuove policy introdotte dalla riforma abbiano indotto nei ricercatori italiani un sostanziale incremento dell’uso strategico delle citazioni. La necessità di raggiungere gli obiettivi bibliometrici fissati da ANVUR con ogni mezzo ha creato un forte incentivo all’autocitazione e alla creazione di club citazionali. Tali comportamenti sono diventati così pervasivi da modificare il valore di Inwardness dell’intero Paese, sia globalmente che nella maggior parte dei settori. Stando così le cose, l’incremento dell’impatto italiano registrato nei ranking citazionali non sarebbe altro che il frutto di un doping citazionale collettivo. Dietro al caso italiano non ci sono politiche della scienza miracolose, ma una gigantesca mascherata bibliometrica.

Che lezione dovremmo trarre da questi dati? Qualcuno potrebbe pensare che l’uso di indicatori più raffinati o la rimozione delle autocitazioni dai calcoli basterebbe a risolvere il problema. Dal nostro punto di vista questa soluzione è invece destinata al fallimento: i ricercatori sono estremamente veloci ad adattarsi ai cambiamenti nella science policy e qualsiasi nuovo indicatore non farebbe altro che stimolare strategie di “gaming” più raffinate, in accordo con la famosa legge di Goodhart (“Quanto una misura diventa un obiettivo, cessa di essere una buona misura”).  Noi pensiamo al contrario che l’insegnamento da ricavare sia che non esiste alcuna bacchetta magica – bibliometrica o di altro tipo – che possa gonfiare la performance scientifica di un Paese. Soltanto un massiccio investimento nella ricerca può farlo.

[1] ANVUR, Rapporto biennale sullo stato del sistema universitario e della ricerca 2018, 2018, https://www.anvur.it/rapporto-biennale/rapporto-biennale-2018/

[i] Nature, Seven days: 6–12 December 2013, https://www.nature.com/news/seven-days-6-12-december-2013-1.14335

[ii] BIS, U. K. International Comparative Performance of the UK Research Base–2016. 2016, https://www.elsevier.com/research-intelligence/research-initiatives/beis2016

[iii] Nature, Editorial, ‘Memo to Italy’s president: your researchers need you’, 27 August 2019, https://www.nature.com/articles/d41586-019-02560-1

[iv] John P. A. Ioannidis et al., ‘A Standardized Citation Metrics Author Database Annotated for Scientific Field’, PLOS Biology 17, no. 8 (12 August 2019): e3000384, https://doi.org/10.1371/journal.pbio.3000384.

[v] Marco Seeber et al., ‘Self-Citations as Strategic Response to the Use of Metrics for Career Decisions’, Research Policy 48, no. 2 (March 2019): 478–91, https://doi.org/10.1016/j.respol.2017.12.004; Federico Scarpa, Vincenzo Bianco, and Luca A. Tagliafico, ‘The Impact of the National Assessment Exercises on Self-Citation Rate and Publication Venue: An Empirical Investigation on the Engineering Academic Sector in Italy’, Scientometrics 117, no. 2 (November 2018): 997–1022, https://doi.org/10.1007/s11192-018-2913-5.

[vi] A. Baccini, G. De Nicolao, E. Petrovich, “Citation gaming induced by bibliometric evaluation: a country-level comparative analysis”, PLOSONE, 09.11.2019 https://journals.plos.org/plosone/article?id=10.1371/pone.0221212

Send to Kindle

50 Commenti

    • L’articolo non parla specificamente di auto-citazioni, ma di citazioni dal medesimo paese. È per questo che l’articolo parla di “club citazionali”.

    • Altri invece pensano che si tratti, del tutto umanamente, di: strategie di adattamento dei gruppi sociali alle mutate condizioni dell’ambiente istituzionale e organizzativo, di cui un esempio è la valutazione. Una manifestazione del ‘darwinismo’ sociale volgare? Emergano i più forti, cioè i gruppi meglio organizzati? perché oltretutto questo funziona soltanto in gruppo.

  1. Eccellente! E’ successo esattamente quello che una qualsiasi persona che sappia cosa sia la ricerca ha predetto immediatamente dopo aver letto la legge sulla valutazione bibliometrica. Mandatene una copia al nuovo ministro MIUR. Fioravanti ha più volte manifestato buone intenzioni, ora che ha il potere si dia da fare.

    • Prima bisogna chiedere al Ministro (qualcuno lo ha mai fatto?) di far dilungare all’Anvur i dati e il metodo con i quali ha creato le soglie Asn.
      Temo che, come anticipato nel finale di questo articolo, sarà scelta la soluzione di eliminare le autocitazioni (di uno o tutti gli autori dell’articolo) nel computo dei propri valori senza toccare le soglie dopate.

  2. Concordo in pieno con le conclusioni: non basta eliminare le auto-citazioni. Occorre eliminare le citazioni come indicatore unico o principale delle performances nella ricerca.
    Occorre investire più in ricerca (almeno avvicinarsi a quanto si fa nei paesi europei con cui vorremmo confrontarci) e ritornare a considerare la ricerca come un’attività “rischiosa”. Non c’e’ storia di citazioni o h-index o storia di finanziamenti che possano garantire che il prossimo progetto di ricerca di un singolo o di un gruppo vada veramente ad innovare in un dato settore. Per cui, più finanziamenti, ma attribuiti sulla base della pura peer review dei progetti.

  3. Quindi siamo riusciti a rendere platealmente inattendibile l’intero sistema mondiale di valutazione su base citazionale?
    Come mai non lo fanno anche gli altri?
    Magari perché la loro vita/morte non é legata al cappio delle citazioni?

    • Sembra proprio di sì: l’Anvur sarebbe riuscita a rendere platealmente inattendibile l’intero sistema mondiale di valutazione su base citazionale. L’Italia è stata la cavia di un colozza esperimento sociale che potrebbe forse risparmiare molti danni ad altre nazioni.

  4. L’articolo viene segnalato e commentato da Giorgia Guglielmi su Science.


    The rate at which scientists in Italy cite themselves and their compatriots is rising faster than in 10 other developed countries, according to a new study. The surge in Italy’s clubby citation behavior is likely the result of a 2010 law requiring productivity standards for academic recruitment or promotion, the study authors say.

    The findings are a cautionary tale for research administrators who rely too much on citation metrics in allocating resources and making decisions on career advancement, says study author Giuseppe De Nicolao, an engineer at the University of Pavia in Italy. Linking professional advancement to citation indicators can prod scientists into unintended behaviors and make the metrics unreliable, he says. […]
    https://www.sciencemag.org/news/2019/09/clubby-and-disturbing-citation-behavior-researchers-italy-has-surged

  5. La segnalazione e il commento di Alberto Magnani sul Sole 24 Ore.


    […] L’improvviso boom della citazioni made in Italy
    Risultato? Nell’arco di pochi anni l’impatto della nostra ricerca è sembrato esplodere a livelli mai sfiorati in precedenza. In particolare nel 2012 il cosiddetto field-weighted citation impact, l’impatto citazionale pesato, ha visto l’Italia superare gli Stati Uniti e attestarsi al secondo posto nell’intero G8, un gradino dietro al solo Regno Unito. Vista così, sembra un successo della combinazione di tagli e criteri Anvur. Ma le cose, spiegano gli autori della ricerca, sono un po’ meno immediate: l’«impennata citazionale» è frutto del cambio di comportamento dei ricercatori, spinti dai nuovi criteri a aumentare il più possibile i propri indicatori bibliometrici per ottenere abilitazioni (in particolare nel passaggio, delicato, da ricercatore a professore associato) e mantenere un profilo competitivo. Anche a costo di moltiplicare le pubblicazioni a scapito della qualità o, appunto, menzionare le proprie ricerche. […]
    https://www.ilsole24ore.com/art/boom-auto-citazioni-studio-denuncia-doping-ricerca-italiana-ACnIPdj

  6. Il danno della valutazione bibliometrica per l’Italia è drammaticamente più consistente di quanto si possa immaginare. Ben più che miliardi buttati al vento, si tratta del futuro del Paese che ne risulta compromesso. Ormai si fa ricerca con lo spot, con disegnini, grafici accattivanti, sostanza poca. Una tipica domanda da fine seminario, tipo “So what?”, non ha più risposte sensate se non un “Boh”. Si tratta di marketing, invece di far ricerca ci si deve impegnare a tessere relazioni sociali, trovare fondi, sponsorizzazioni. Chi ha queste doti manageriali ha la strada spianata. E’ un problema su scala mondiale con l’Italia che, grazie all’ANVUR, primeggia su tutti.

    • Come in altro commento @epsy: la questione sollevata non è relativa alle (sole) auto-citazioni. Non riesco a capire come non si riesca a capire il messaggio generale dei redattori dell’articolo (peraltro ben indicata come “legge di Googhart”). Forse anche qui su roars NON SI VUOLE capire.

  7. Tipica furbizia italiana che rischia di compromettere un parametro che potrebbe altrimenti essere utile. Il problema che si deve risolvere è come affrontare la necessaria valutazione per la distribuzione di finanziamenti.Se pochi citano la mia ricerca forse è di poco interesse e quindi probabilmente non contribuisce significativamente all’aumento di conoscenza. Se la citano in molti sarebbe vero il contrario, tranne per quello che viene segnalato nell’articolo. Tuttavia, piuttosto che buttare il bambino con l’acqua sporca, si potrebbero trovare soluzioni come, ad esempio, affiancare la peer review al criterio delle citazioni, riducendo così il lavoro dei revisori. Aumentare i finanziamenti (chi non sarebbe d’accordo?) non risolve il problema della loro distribuzione.

    • Quindi uno che non è già affermato non ha diritto di avere una peer review che lo faccia passare? Sembra l’ultimo prin…
      Invece di investire le nostre scarse risorse su come ottenere una peer review decente (che questo è il vero problema), continuiamo a perdere tempo con queste tecniche fallaci ovvero a far piovere sul bagnato e mortificare chi ha idee fuori dal coro. La sbornia gelminiana ancora non è passata.

    • Il commento sui giovani ricercatori è assolutamente appropriato. Sarebbero necessari finanziamenti ad hoc riservati a giovani dove l’impatto delle citazioni nella valutazione dovrebbe essere ridotto. Nei PRIN la valutazione, parzialmente bibliometrica, era solo la prima tappa ed era limitato al coordinatore. Certo, idealmente dovrebbero avere tutti accesso alla peer review ma credo che il carico sulla comunità scientifica potrebbe essere insostenibile.

    • @roberto di lauro: nella valutazione dei progetti non ci possono essere automatismi. E’ *il progetto* che deve esser sensato, avere alto impatto potenziale, ben pianificato etc.etc. Le qualità del team possono essere un parameto ausiliario di giudizio, ma le citazioni di PI e collaboratori mi risultano modo meno razionalemente difendibile per questo scopo. A he serve un alto numero di citazioni su un agomenti non strettamente connessi al progetto? Purtroppo ci stiamo abituando a misurare tutto con gli strumenti sbagliati: i progetti con le citazioni delle persone, i ricercatori con le citazioni degli articoli, gli articoli con le citazioni medie delle riviste… il tuttoper la massima ipocrisia (“sono indicatori oggttivi…”).

  8. Devo dire che l’articolo è molto interessante e fa luce su un fenomeno presente e poco edificante. Devo anche sottolineare che ancor più odioso è sentire un Presidente del Consiglio che si era iscritto al concorso per prendere la cattedra del suo mentore Alpa farsi bello del lavoro altrui dopo aver tagliato i fondi all’Università mentre governava con gente che parlava male dei “Professoroni”. Nonsotante questo, credo che l’analisi delle riforme debba essere sempre svolta sulla base dei costi e dei benefici e con degli strumenti di misura molto tosti, per questo motivo vorrei porre alcune domande, sperando di non risultare ingenuo:
    1. il paper ha un approccio descrittivo, come si fa ad essere sicuri che il fenomeno di self-citation sia dovuto essenzialmente alla Riforma? (in effetti gli stessi grafici mostrano che anche in altri Paesi il trend è in forte crescita, se la causa è la Riforma, perché vediamo lo stesso trend da altre parti?)
    2. come si può essere certi che l’inwardness – per come capisco è stato costruito – misuri il fenomeno dei club citazionali e non un fenomeno collegato alla self-selection? (nelle nuove teorie economiche sul commercio appare chairo che gli scambi di merci avvengano principalmente tra Paesi con culture simili per una questione di comodità e di probabilità di punti di contatto, non è possibile che parte dell’inwardness sia dovuta al fatto che gli scienziati conoscano meglio il lavoro di scienziati loro vicini?)
    3. la bibliometria è diventata molto importante in tutto il mondo soprattutto dall’avvento di G Scholar. Quasi tutti, per farci una idea del livello di un collega andiamo a vedere la sua pagina scholar o scopus, non è anche questo un incentivo per autocitarsi? (da cui segue la domanda come facciamo a scorporare il contributo in percentuale della riforma all’innalzamento dell’attenzione degli italiani per la bibliometria rispetto all’incentivo dato dalla bibliometria come indice “mondiale” per la propia reputazione?)
    4. (ULTIMA DOMANDA) non credete che la Riforma, avendo posto l’attenzione sulla bibliometria abbia anche consentito ai giovani che vogliano lavorare bene di emanciparsi almeno da alcuni propri superiori interni ed esterni che un tempo si facevano il “giornale in casa” e, o pubblicavi lì o eri una nullità? (intendo dire, non pensate che in generale i benefici della bibliometria possa almeno in parte compensare il fenomeno del citation gaming).

    • Nella mia modesta opinione l’andare a vedere su scholar o simili sistemi chi è e cosa fa un collega che non si conosce non ha nulla a che fare con il meccanismo di premialità messo in piedi dall’anvur. Anche ieri ho usato lo strumento per guardare cosa fa un collega che non conosco. Ho però guardato al suo impatto citazionale solo perché, purtroppo, continua ad essere un criterio di valutazione delle proposte; ad esempio c’è proprio in questi giorni un bando interessante aperto e quel collega ha un impatto citazionale ben maggiore del mio. Continuando a farci del male, bando prevede che l’impatto citazionale del proponente si trasformi in punti nella valutazione della proposta e, aspetto che trovo mortificante, si ammanta anche questo modo di fare con la retorica della meritocrazia. Ma se la proposta è bella o brutta, scritta in fretta o bene, con delle idee interessanti o senza, che relazione ha con l’impatto citazionale del proponente? I meritocratici attualmente dominanti pensano che se è stato male ed ha scritto una brutta proposta gliela devono prendere lo stesso.

  9. Secondo me, più che alla deliberata nascita di club citazionali, il fenomeno potrebbe essere dovuto al fatto che “ti cito per farti vedere che sono tuo amico”, quindi non (solo) a seguito di una esplicita richiesta / organizzazione, con l’implicito “trattami bene alla prossima revisione di progetto”, “alla prossima valutazione”, “al prossimo concorso”, etc. etc.
    Questo tipo di “slurp” diventa sempre più efficace, anche nel breve periodo, visto che un grandissimo numero di ricercatori segue le citazioni che gli arrivano, giorno per giorno, attraverso i vari sistemi, es. researchgate.

  10. Supponiamo che l’eccellenza cosiddetta sia il X per cento degli addetti alla ricerca. Supponiamo che Y sia la massa di ricerca prodotta da questo top X. Quanta ricerca è prodotta dal rimanente 100-X per cento? Quanto questa ricerca è funzionale alla ricerca del top X? Io penso moltissimo. Certamente non credo agli eccellenti che si chiudono in un castello dorato. In questi giorni circola una lista dei top 100.000 scientists mondiali, researchgate conta circa 15.000.000 di iscritti. Fanno pensare questi numeri.

  11. Complimenti per lo studio molto interessante.
    Trovo ancora più curiosi i risultati nelle aree humanities AH e social sciences SOC che come ricordano gli autori non sono soggetti allo stesso sistema bibliometrico. Le osservazioni sull’affidabilità dei valori in queste aree (in cui contano ancora molto le monografie, mal rilevate in scopus) sono sicuramente appropriate. Tuttavia i settori mostrano una crescita eccezionale di Inwardness pur senza l’incentivo diretto a comportamenti opportunistici.

    • Dalle mie parti si dice: “Meglio mettere le mani avanti”; o ancora: “Per non sapere né leggere né scrivere”.

  12. Le autocitazioni sono un malcostume? Forse. Le citazioni incrociate organizzate con gli ‘amici’ sono sicuramente peggio. Ed è quello che è successo. Poveri tapini cercano disperatamente di difendersi autocitandosi. Quelli ‘bravi’ invece sono sempre più ‘bravi’ perchè si organizzano e si citano a vicenda, tra amici. Il problema non è irrisolubile. Basta porre una moratoria sui lavori del tipo: non si possono fare più di 2 pubblicazioni all’anno. E ancora più importante mettere una moratoria sui congressi, dove si coltivano le buone amicizie, del tipo: non si può partecipare a più di 2 congressi all’anno. Così sarebbero anche risparmiati un sacco di soldi che se ne vanno in ‘turismo accademico’.
    La domanda è: ma come si valuterebbe la ricerca? Semplicemente raccontando quello che ciascuno fa e sottoponendolo al giudizio di una Commissione. La Commissione potrebbe dare così giudizi arbitrari e pilotati? Certamente si, ma comunque meno pilotati di quelli basati sugli indici.

    • Troppo facie alzare il livello della ricerca in questo modo! Fàmolo strano, invece, misuriamo il livello della ricerca costruendo una improbabile funzione di 2 variabili, l’IF della sede pubblicativa ed il numero di citazioni. L’importante è NON leggere la ricerca. Del resto che lavoro facciamo? Non certo i ricercatori.

    • Claudio Braccesi, quanto scrive è talmente assurdo da sembrare puro sarcasmo … o lo è?
      Quindi secondo lei se ho già utilizzato le due possibili pubblicazioni ed ho un terzo risultato brillante che faccio aspetto un anno per poterlo pubblicare? Se mi invitano ad una terza conferenza di rilievo, rispondo che non è possibile perché sono già andato a due.
      Se seuo tre dottorandi non devo firmare i lavori che ho impostato e seguito? Una buona soluzione per far carriera stando in vacanza o facendo la libera professione. Ma c’è anche chi fa ricerca scientifica seria a tempo pieno e con collaborazioni internazionali.

    • Resta comunque la semplice mancanza del buon senso nelle valutazioni ad opera delle commissioni. Ad esempio quando vedo che un collega che pubblica sistematicamente 30 e più articoli a rivista ogni anno io mi farei più di una domanda su come sia umanamente possibile conciliare questa produzione con l’attività didattica e istituzionale. In fase di valutazione sarebbe opportuno chiamarlo e fargli raccontare il contenuto dei suoi articoli e magari si scopre la magia (i più informati dovrebbero già saperlo).

    • In nome dell’oggettività, non usa più dare valore alla discussione dei titoli. In un’altra epoca, bisognava cimentarsi con una lezione e anche discutere la propria produzione scientifica davanti alla commissione.

    • Tutti i redattori di una rivista che hanno una rubrica fissa, producono tanti editoriali quanti sono i numeri in uscita. Considerarli produzione “scientifica” è gravemente distorcente. Spesso le riviste sono autoreferenziali, ovvero strumenti costruiti esclusivamente allo scopo di “montare” le carriere.
      A Ferrara hanno introdotto il limite minimo di due pagg. Così per magia gli editoriali sono diventati di tre pagine, tagliando fuori repertori internazionali di alto livello che spesso dedicano una o due pagg a ciascun partecipante.

    • A Goodwin: “Claudio Braccesi, quanto scrive è talmente assurdo da sembrare puro sarcasmo … o lo è?” Braccesi dimostra di avere, semplicemente, una buona esperienza critica accademica. Certo che la seconda parte del primo paragrafo è semisarcastica. Il “turismo accademico” compiuto con juicio è senz’altro utile. Ma l’eliminazione delle modalità peripatetiche, di diretto confronto o discussione tra studiosi o tra maestri e allievi, o semplicemente tra curiosi colti, significa soltanto un grave impoverimento degli scambi di opinioni, informazioni, critiche, approfondimenti, che sono o dovrebbero essere invece fondamentali in una cd comunità scientifica. Spesse volte è nei ‘corridoi’ che si svela il vero professionista, il vero intenditore, quando si lascia andare, con un linguaggio meno formale, alla formulazione di certe problematiche, esperienze, dubbi o curiosità che mai metterebbe per iscritto, quando chiacchiera insieme agli altri con disinvoltura, ridendo e scherzando e anche prendendosi in giro. Del resto ricordo il caso di un matematico, che partecipava, appunto, a simili discussioni, che non partecipava alla stesura materiale dell’articolo, ma la cui partecipazione era ritenuta talmente importante da farlo figurare come coautore dello scritto.

    • A Goodwin: non, non è sarcasmo è una cosa seria. Temo l’unica cosa seria che si possa dire. I suoi risultati ‘brillanti’ sa dove se li può ficcare?

    • A De Nicolao: giusto, è proprio lì che volevo andare a parare. Concorsi per esami e non per titoli. Così si guarderebbe il candidato in faccia. Molti ‘most cited’ temo che non abbiano la minima idea di cosa hanno pubblicato.

  13. Articolo interessante, e piu che condivisibile nelle intenzioni. Noto purtroppo (ma non inaspettatamente) che le sottili analisi di questo sito sono state completamente perse nell’articolo del piu’ importante quotidiano italiano. Il messaggio che e’ passato e’ “con gli accademici italiani non c’e’ verso di fare le cose per bene”. Cioe’, si e’ forse immaginato di mettere in evidenza un problema dovuto alla valutazione, ed il risultato (bisognava essere un po’ ingenui per non immaginare che sarebbe andata a finire cosi) e’ stato quello di dire “per quanto ANVUR ci abbia provato, i nostri trovano sempre la maniera di fregare”.

  14. Che delusione! Per una volta che si primeggiava…!

    Scherzi a parte, credo che l’effetto diseducativo di questo modo di fare (quantità, citazioni, titoli, a prescindere dalla sostanza) sia già forte e rischi di essere catastrofico in futuro.

    Tra colleghi, c’è una certa discussione sul fatto che la pressione verso la pubblicazione abbia avuto anche qualche effetto benefico. Non nego che questa spinta possa aver dato una scossa a chi non pubblicava per pigrizia o solo perché più interessato a fare che a far sapere (succede a volte che le cose rimangano in un cassetto). Questo, però, potrebbe essere vero solo nel caso di ricercatori onesti ed integerrimi. Anche gli onesti, infatti, si possono corrompere, pur di sopravvivere. Se poi non si è appassionati o non si hanno le capacità per fare bene il proprio lavoro…

    Nel caso peggiore, non si tratta solo di sopravvivere, ma di sorpassare qualcuno, cosa molto meno comprensibile o giustificabile.

    • Non credo nell’effetto benefico della riforma. Quegli articoli che prima rimanevano nel cassetto probabilmente non avevano una qualità tale da invogliare l’autore a pubblicarlo. Inoltre la nascita di tante riviste di scarso valore ha consentito a questi articoli da cassetto di essere pubblicati. La riforma Gelmini ha praticamente abbassato l’asticella della qualità a livelli a cui mai avremmo pensato in passato.

  15. Cito: “Altri invece pensano che si tratti, del tutto umanamente, di: strategie di adattamento dei gruppi sociali alle mutate condizioni dell’ambiente istituzionale e organizzativo, di cui un esempio è la valutazione. Una manifestazione del ‘darwinismo’ sociale volgare? Emergano i più forti, cioè i gruppi meglio organizzati? perché oltretutto questo funziona soltanto in gruppo.”
    Non oso pensare che non sia possibile correggere un sistema sbagliato …

  16. peccato che la vostra conclusione “Soltanto un massiccio investimento nella ricerca può farlo.” non sia “condivisa” dagli articolisti su Corriere e Sole24, ne dai loro lettori che già invocano misure draconiane contro le università…

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.