Il caso della ASN di storia economica sta facendo molto rumore, soprattutto dopo che un premio Nobel ed undici storici economici stranieri sono intervenuti criticandone gli esiti. Ancora una volta, secondo la migliore tradizione accademica italica (che ci è stato raccontato sarebbe stata superata dall’adozione salvifica delle mediane e degli indicatori bibliometrici), chi ha il potere vince. Al punto che il profilo del “vincitore” della VQR è l’opposto del profilo del “vincitore” della ASN. Questi risultati sono la conseguenza di procedure e istituzioni disegnate male, che determinano esiti della valutazione non sulla base di procedure corrette e fair, ma degli obiettivi di chi si trova, di volta in volta, ad esercitare il potere. Come intervenire? Ci permettiamo di suggerire al ministro un semplice test che, se applicato prima di adottare qualsiasi nuova regola, consentirebbe di valutarne preventivamente la robustezza.

Il caso della ASN di storia economica sta facendo molto rumore. A mio parere, il caso è emblematico del cattivo funzionamento delle procedure disegnate per VQR e ASN, che proprio in questo settore sono entrate in rotta di collisione fra di loro.


Stiamo parlando di un settore SECS/P12 molto piccolo: 37 ordinari, 63 associati, 66 ricercatori; dove, come avevo scritto qualche tempo fa,  convivono conflittualmente due diverse  anime:  un gruppo maggioritario di storici economici che negli anni ha lavorato coltivando in gran parte ricerche di tipo nazionale, nel senso di Diana Hicks, che non hanno trovato sbocco sulle riviste di riferimento per la comunità internazionale degli storici economici; e un gruppo minoritario di storici economici che ha invece privilegiato ricerche che sono state pubblicate su riviste internazionali.

Questo quadro è evidente quando si guardino i dati VQR; si badi bene non i risultati della valutazione, ma i dati relativi ai lavori presentati. Su 467 lavori di storia economica conferiti alla VQR si contano 128 articoli su rivista (27%), 193 articoli in volumi collettanei (41%), 37 contributi ad atti di convegno (8%) e 109 monografie (23%) (Fonte: tabella 4.6 VQR Area 13). Solo 54 articoli (11%) dovrebbero essere stati pubblicati su qualcuna delle 37 riviste internazionali di storia economica selezionate dal GEV13 (Fonte: elaborazione da tab. 3.4 VQR area13); di questi, 23 in riviste di classe A. Quelle 37 riviste sono un elenco  ampio di riviste internazionali di riferimento per la comunità internazionale degli storici economici, del tutto simile per esempio alla lista del CNRS francese. 320 lavori, pari al 68%, sono pubblicati in italiano. I dati disponibili per l’ASN confermano questo quadro. Ad esempio, se prendiamo i dati delle pubblicazioni dei 61 candidati ad ordinario possiamo vedere che essi producono in prevalenza letteratura nazionale; tutti o quasi (91%) pubblicano libri (prevalentemente in Italiano); 47 candidati (il 77% del totale) non hanno mai pubblicato su riviste di fascia A

Cosa vuol dire che VQR ed ASN sono entrate in rotta di collisione? Mentre la VQR è stata governata dalla minoranza, la ASN è stata invece “controllata” dalla maggioranza del settore. Ecco i dati, elaborati su dati elementari forniti da Moreno Marzolla.:

  • Su 61 candidati di storia economica (degli 81 candidati del SC 13C1) ne sono stati abilitati 31 (51%)
  • I valori delle mediane del settore concorsuale sono IND1:1 (monografie); IND2:15 (articoli); IND3:0 (riviste in classe A)
  • IND1. Nessuno è stato abilitato in storia economica senza almeno una monografia;
  • IND2. 8 abilitati (26%) in storia economica hanno meno di 15 articoli e non superano quindi la seconda mediana; di questi 8 abilitati, nessuno ha articoli in riviste di fascia A, e quindi supera soltanto la mediana delle monografie;
  • IND3. 24 abilitati (77%) in storia economica non hanno pubblicazioni su riviste di fascia A e non superano quindi la terza mediana; solo 7 abilitati (23%) hanno pubblicazioni in riviste di fascia A (4 ne hanno 1; 2 ne hanno 2 e 1 ne ha 4). Tutti questi 7 abilitati hanno più di 15 articoli e quindi superano 3 mediane.
  • 7 candidati non abilitati (pari al 50% del totale dei 14 candidati con pubblicazioni in fascia A)  hanno più di una pubblicazione in riviste di fascia A; in particolare non sono stati abilitati in storia economica i tre candidati che presentavano il maggior numero di pubblicazioni in fascia A (rispettivamente 6, 10 e 12). Il che ha fatto smuovere un gruppo di prestigiosi storici economici internazionali, tra cui un premio Nobel, come si può leggere qui (link).

Nella tabella che segue sono contenuti i risultati delle valutazioni VQR di storia economica: oltre il 50% dei migliori prodotti presentati è stato giudicato Limitato; solo 5 prodotti diversi da articoli su riviste in classe A sono stati giudicati E.

 

Morale della favola.

Secondo la migliore tradizione accademica italica, che ci è stato raccontato sarebbe stata superata dall’adozione salvifica delle mediane e degli indicatori bibliometrici, come al solito chi ha il potere vince. Il profilo del “vincitore” della VQR è l’opposto del profilo del “vincitore” della ASN. La commissione ASN ha adottato una linea di continuità rispetto all’esistente, premiando le modalità di produzione prevalenti in Italia e penalizzando di fatto chi ha presentato pubblicazioni in riviste di fascia A. Al contrario nella VQR l’adozione della classifica delle riviste dove solo una minoranza ha pubblicato, ha richiesto l’uso massiccio (oltre il 90%) di informed peer review, con pessimi risultati per tutti i “prodotti nazionali” (risultati indotti anche da una scheda di valutazione malcongegnata, come ha scritto Antonio Banfi).

Questi risultati sono la conseguenza di procedure e istituzioni disegnate male, che determinano esiti della valutazione non sulla base di procedure corrette e fair, ma degli obiettivi di chi si trova, di volta in volta, ad esercitare il potere. Nella VQR il GEV di Area13, nella ASN la commissione di storici economici (in maggioranza) tradizionali. Non è difficile immaginare che a parti invertite i risultati sarebbero stati inversi.

Come intervenire? Finché si continueranno a scrivere regole i cui esiti dipendono dal potere esercitato dal piccolo gruppo che si trova al potere, non ne usciremo. Questo vale per l’ASN dove si è attribuito ad un gruppo ristretto di 5 persone il potere di decidere la carriera di centinaia di persone per un tempo lunghissimo (2 anni). E vale per la VQR dove un meccanismo completamente opaco di nomine a cascata è servito a creare Gruppi di Esperti di Valutazione (GEV) cui è stato attribuito il potere di definire le regole della valutazione e di applicarle.

La concentrazione di potere (VQR e ASN) si esercita su un bizantino sistema corporativo di settori disciplinari e concorsuali spesso del tutto autoreferenziali. La confusione e le proteste osservabili dopo la pubblicazione dei risultati della ASN -e in minore misura della VQR-, sono state precedute dal silenzio pubblico che ha accompagnato i lunghi mesi in cui le commissioni ASN hanno definito i criteri dell’abilitazione e ANVUR ha disegnato la VQR. Al silenzio pubblico si sono verosimilmente accompagnate tutte le frenetiche e più o meno riservate attività volte a tentare la cattura dei regolatori. Ad alcuni è andata bene, ad altri no. Ed ora che i risultati sono noti, alcuni –ovviamente i perdenti- strepitano; altri – i vincenti- cantano le lodi.

Una buona linea di intervento potrebbe consistere in azioni mirate a rompere la concentrazione di potere e a distribuire sull’intera comunità accademica il controllo dei processi di valutazione (VQR e ASN), scardinando finalmente la frammentazione corporativa dei settori disciplinari. Per quanto riguarda la ASN questo intervento potrebbe consistere per esempio nel prevedere un numero elevato di commissioni per ciascun settore concorsuale (1 commissione ogni 50 candidati o anche meno), con candidati attribuiti casualmente alle commissioni stesse. Questo potrebbe servire a de-correlare gli errori tra commissioni.

In ogni caso, prima di adottare qualsiasi nuova regola e procedura che regoli la vita delle università, credo che sarebbe saggio da parte del ministro adottare sistematicamente un semplice test per valutarne preventivamente la robustezza. Il test è basato sul seguente ragionamento: un meccanismo istituzionale o una procedura è desiderabile se e solo se ciascuno è disposto a difenderne il disegno nel caso in cui sia il suo peggiore nemico accademico (perché scelto dal ministro di turno o perché estratto a sorte) a gestire la procedura.  Anziché farsi consigliare dal solito cerchio magico intorno al MIUR –quello che ha inventato parametri oggettivi, mediane e compagnia-, il ministro sottoponga a piccoli panel casuali di ricercatori la bozza del provvedimento che intende adottare e ponga la domanda di cui sopra.

ANVUR, VQR ed ASN non passerebbero questo semplice test. E non lo passerebbero perché sono state disegnate con intento completamente diverso: rivoluzionare dall’alto l’università e la ricerca italiana. I risultati si possono finalmente osservare. E non è un bello spettacolo.

Send to Kindle

40 Commenti

  1. Mi sembra ci sia poco da commentare: ci ho provato, in tempi non sospetti, a tornata aperta, a far riflettere sulla cialtroneria del meccanismo. Non mi sembra di aver suscitato particolare interesse e non capisco come mai ci si accorge solo ora del silenzio pubblico e, soprattutto, del silenzio assordante di chi l’accademia avrebbe dovuto difendere e sostenere.

    Trombato due volte, per non essere pertinente con il triplo dei valori richiesti e per non raggiungere le mediane dall’altro, sono in procinto, a 56 anni, di emigrare. Non è mai troppo tardi, ma il maestro Manzi è morto, purtroppo.

    Arrivederci e buon proseguimento…

  2. Per quanto riguarda la ASN questo intervento potrebbe consistere per esempio nel prevedere un numero elevato di commissioni per ciascun settore concorsuale (1 commissione ogni 50 candidati o anche meno), con candidati attribuiti casualmente alle commissioni stesse.

    L’idea in se è condivisibile, ma ci sono settori che sono arrivati al migliaio di candidati, ovvero 20 commissioni, ovvero 100 valutatori… Uno scherzo non da poco e poi bisognerà garantire il coordinamento e l’uniformità (non facile anche con 5 commissioni).
    Oltretutto a che serve uno sforzo simile, se poi ogni candidato sarà rivalutato da altre commissioni di concorso?
    Parliamoci chiaramente, l’ASN nasceva con l’idea di un controllo di decenza, che può essere fatto senza troppi sforzi e senza impegnare un esercito di commissari.
    Detto questo dato che la VQR è una idea buona e giusta, perchè non fondere i due esercizi di valutazione e far si che quando descritto nell’articolo non succeda?

    • @ Baccini
      Mi era chiaro, ma se questi vengono assegnati a dei commissari-valutatori “casualmente” (ossia non ci decidiamo a fare come in quei Paesi civili nei quali chi studia uno specifico argomento è giudicato da un esperto di quello specifico argomento), non se ne esce.

    • @fausto_proietti
      Io invece non avevo proprio capito il punto. Ora sì. La mia opinione è: in linea di pricnipio concorso. Ma temo molto i risvolti italici: “nessuno è competente per giudicarmi”. Buttare via gli ssd, adottare aree ERC e pensare a meccanismo di formazione delle commissioni per parole chiave? In prima approssimazione forse l’estrazione casuale è meno difficile da implementare…

    • Non mi convince. Io, ad esempio, studio la democrazia: ma da storico, non da politologo o da filosofo. Se mi estraggono – con le “parole chiave” – una commissione di politologi o di filosofi, naturalmente sosterranno che (dal loro punto di vista) la mia impostazione metodologica non è scientificamente fondata. E viceversa, naturalmente.
      Io personalmente non avrei paura di essere valutato da due commissari che 1) sono competenti nel mio specifico ambito e 2) ci mettono la faccia, con un giudizio articolato e motivato. Anzi, un sistema migliore di questo (che poi è quello della qualification francese) a me non viene proprio in mente. Poi naturalmente se il problema sono i “vizi italici”, non va bene niente e ne sono convinto anch’io.

  3. Vorrei far notare che la non applicazione delle mediane ha generato mostri, non il converso. La nota del Ministro profumo ha azzerato il valore degli indici Anvur e introducendo l’eccezionalità dei risultati ha destrutturato l’intera Asn, legittimando l’operato di commissioni come 13/A1 e 13/D4 in cui nell’un caso sono stati adottati criteri che avrebbero dovuto al più essere complementari e non esclusivi (si veda il verbale del 21 novembre 2013) e nell’altro ha consentito a candidati che pure superavano gli ulteriori criteri bibliometrici introdotti dalla commissione di non esser abilitati nonostante impact factor non inferiori alla maggioranza dei membri della stessa, il che come criterio di coerenza mi sembra almeno criticabile. Quindi riasumendo è la non applicazione dei criteri che ha determinato i casi e a conferma di ciò si può vedere l’esito della commissione 13/A2 dove invece i risultati sono frutto dell’applicazione delle regole Anvur così come le correzioni in autotutela.

  4. La ASN ha dato i risutati dovuti laddove le Commissioni hanno rispettato la relativa disciplina. Il potere discrezionale, il più delle volte, è stato utilizzato male perché i Commissari erano espressione di un’accademia che non vuole perdere potere. Invero, anche la circolare del Ministro Profumo, pur avendo aperto le maglie, ha continuato sempre a chiedere una procedura trasparente e basata su valutazioni oggettive. Non solo. Avendo previsto come eccezionali le ipotesi in cui l’abilitazione fosse concessa a chi non era in possesso della mediana o fosse negata a chi la avesse IMPLICITAMENTE AFFERMA che la regola è quella secondo la quale l’abilitazione deve essere concessa a chi ne è in possesso: è lo stesso D.M. n. 76/2012 ad esprimersi in tal senso laddove prevede che la valutazione della qualità della produzione scientifica deve avvenire secondo i criteri di cui all’Allegato B.
    Purtroppo, il Ministero non ha preso i dovuti provvedimenti verso le Commissioni che hanno male operato richiedendo una rivalutazione dei candidati; annzi si è costituito contro i numerosissimi ricorrenti che si sono rivoli alla magistratura per lamentare l’illegittimità della mancata concessione dell’abilitazione.
    In conclusione, prima di buttare l’ASN vediamo di recuperare il principio di legalità.

  5. Prendo il caso che conosco meglio:13/A1. In quella commissione è stato redatto un verbale che mette nero su bianco che alcuni membri della commssione hanno utilizzato altre liste o criteri in luogo di quelli previsti dal ministero, non come complementari a quelli previsti, detreminando un ribaltamento delle conclusioni. Nella stessa commissione il richiamo alla rilevanza/eccezionalità è servito a non abilitare chi superava abbondantemente non una, ma due ma persino tre mediane. Quella commissione è stata semplicemente indecente, ma potrei continuare con altre che non sono state da meno, senza scomodare quella di storia economica che veramente ha raggiunto vette inesplorate di ridicolo.
    Che sia il sintomo di una concezione padronale dell’accademia mi sembra evidente, ma che questo venga tollerato dal Ministro, che ha pure speso 120 milioni si stima, mi sembra inverosimile.

  6. L’argomentazione di Baccini è affascinante, ma non adeguatamente supportata perchè l’autore omette di inserire nel computo anche le riviste di fascia A dell’area 11, che erano comprese nei criteri della commissione, e trascura di considerare i 10 abilitati extra storia economica, pari al 30% circa della 1a fascia (9 di storia del pensiero e 1 di storia dell’agricoltura tutti con cv brillanti e internazionali), perchè renderebbero più fragile il modello su cui basa la sua tesi.
    Vorrei segnalare inoltre che il 50% (39/77) degli abilitati alla IIa fascia sono ricercatori non strutturati, o all’estero, o di altre discipline o di storia del pensiero economico. Questa apertura all’esterno sembrerebbe contraddire la tesi di una rigida difesa corporativa della commissione, anzi piuttosto il contrario, e questo credo sia positivo vista l’interdisciplinarietà che deve possedere una materia di frontiera come storia economica, aprendosi alle correnti più feconde della storia e dell’economia. E credo che questo dipenda anche dalla composizione culturale mista della commissione, formata da due storici economici più tradizionali, da uno storico economico più sensibile ai temi della new economic history e da due storici economici molto vicini alla storia storia.
    Naturalmente sono un’abilitata esterna che mai col vecchio sistema avrebbe visto riconoscere i propri meriti.

    • Nel mio post considero SOLO storia economica. Mi sono guardato bene dal discutere i criteri aggiuntivi della commissione. I risultati sono per me un dato (fatto stilizzato) che leggo sulla base delle indicazioni ministerial-anvuriane (mediane, anch’esse date). Non discuto competenza della commissione, estrazione culturale, criteri adottati etc. etc.. Discuto gli effetti dell’architettura sui risultati, non valuto i risultati.

    • ‘Ancora una volta, secondo la migliore tradizione accademica italica […], chi ha il potere vince’.
      Chiedo scusa, ma questa non è una valutazione dei risultati?

    • No. E’ la morale della storia. Avrei commentato i risultati se avessi scritto che i risultati vqr sono corretti e quelli della asn sbagliati o viceversa secondo qualche criterio di merito. Che non ho adottato.

  7. Il problema è che in Italia manca (fra le mille altre cose) una seria cultura del referaggio, che viene spesso inteso come amichevole strizzatina d’occhio o viceversa (se il referato non è “dei nostri”) come solenne bastonatura. Sarà il caso di rifletterci collettivamente prima della prossima tornata VQR; per quanto riguarda l’ASN, il Ministro ha già abbondantemente esternato la propria volontà di eliminarla (producendo nuovi, enormi danni a mio avviso, ma del resto non concordo col contenuto di nessuna delle esternazioni fin qui operate dal M.).

  8. Ragazzi, ma la soluzione ce l’abbiamo in casa! Perché non fare come nella scuola? Graduatoria nazionale per SSD, stilata da un software, sulla base dei punteggi* ottenuti con il proprio lavoro. Aggiornata mensilmente. In ogni settore massima trasparenza, nessuna commissione, nessun concorso locale, quando un’università ha bisogno di un docente chiama il primo in classifica, se questo non vuole, passa al secondo, ecc…
    [* pubblicazioni, h-index, citazioni, corsi tenuti, esperienze di lavoro in Italia e all’estero, valutazione degli studenti, ecc… tutto chiaramente espresso in numeri da un regolamento molto dettagliato (anche complesso se serve) scritto A PRIORI].

    • Gradirei delle risposte che entrino nel merito, possibilmente ripulite dall’arroganza spocchiosa che contraddistingue molti gestori di questo sito… ce la fate?
      In molti dipartimenti, ad esempio, la suddivisione dei fondi ex-60% viene già fatta su base solo numerica, e si tratta di valutazione di carriere di ricercatori. Proprio quello che servirebbe per risolvere il problema della “soggettività” delle commissioni…

    • Non è questione di spocchia. Se un calcolatore sapesse gestire al meglio la vita associata avremmo risolto ogni problema. Il punto è che non è così e che chi pensa una cosa del genere non dovrebbe insegnare all’università e neanche all’asilo. Possibilmente non dovrebbe neanche postare su internet, ma lavorare in profondi cunicoli in miniere più tenebrose di quelle di Moria. Per gli anonimi, un girone più profondo degli altri.

    • Enrico A: “Gradirei delle risposte che entrino nel merito, possibilmente ripulite dall’arroganza spocchiosa che contraddistingue molti gestori di questo sito… ce la fate?”
      _______________________________
      Credo che su Roars siano state pubblicate centinaia di pagine, sia come articoli che come commenti, le quali entrano ampiamente nel merito. Scusandomi con i lettori più attenti che avranno letto già tre o quattro volte quello che segue, cito di seguito una selezione rappresentativa degli articoli e delle prese di posizione ufficiali che sottolineano l’inadeguatezza di una valutazione automatica dei ricercatori e degli articoli scientifici fatta sulla base solo numerica. Più che per l’arroganza spocchiosa, alcuni gestori di questo sito si caratterizzano per un’infinita pazienza e per le ore di sonno sprecate a dare risposte argomentate a chi scrive commenti a ruota libera senza essersi documentato adeguatamente.
      ==============================
      1. Articles in scientific journals
      ____________________________
      [1.1] D.L. Parnas, “Stop the Numbers Game – Counting papers slows the rate of scientific progress,” Communications of the ACM, Vol. 50, No. 11, 2007, pp. 19-21.
      http://ce.sharif.edu/%7Eghodsi/PaP/stop_the_number_game.pdf
      “The widespread practice of counting publications without reading and judging them is fundamentally flawed for a number of reasons: It encourages superficial research … overly large groups … repetition … small, insignificant studies … publication of half-baked ideas.
      Evaluation by counting the number of published papers corrupts our scientists; they learn to “play the game by the rules.” Knowing that only the count matters, they use the following tactics: Publishing pacts. … Clique building … Anything goes … Bespoke research …Minimum publishable increment (MPI). ….Organizing workshops and conferences …
      Those who want to see computer science progress and contribute to the society that pays for it must object to rating-by-counting schemes every time they see one being applied”
      ____________________________
      [1.2] D.N. Arnold (past president of the Society for Industrial and Applied Mathematics), “Integrity under attack: The state of scholarly publishing”, SIAM News. Vol. 42, No. 10, December 2009, pp. 1-4.
      http://www.siam.org/news/news.php?id=1663

      “The next time you are in a situation where a publication count, or a citation number, or an impact factor is brought in as a measure of quality, raise an objection. Let people know how easily these can be, and are being, manipulated. We need to look at the papers themselves, the nature of the citations, and the quality of the journals.”
      ____________________________
      [1.3] D.N. Arnold and K. K. Fowler, “Nefarious Numbers”, Notices of the American Mathematical Society, Vol. 58, No. 3, March 2011, pp. 434-437.
      http://www.ams.org/notices/201103/rtx110300434p.pdf
      “Despite numerous flaws, the impact factor has been widely used as a measure of quality for jour- nals and even for papers and authors. This creates an incentive to manipulate it. Moreover, it is possible to vastly increase impact factor without increasing journal quality at all. … The cumulative result of the design flaws and manipulation is that impact factor gives a very inaccurate view of journal quality. More generally, the citations that form the basis of the impact factor and various other bibliometrics are inherently untrustworthy.”
      ____________________________
      [1.4] A. Molinié and G. Bodenhausen, “Bibliometrics as Weapons of Mass Citation”, Chimia 64 No. 1/2 (2010) 78–89
      http://www1.chimie.ens.fr/Resonance/papers/2010/Molinie-Bodenhausen-Bibliometrics-Chimia-64-78-2010.pdf
      “Just as the ‘value’ of financial products is assessed by irresponsible ranking agencies, the value of scientific research is as- sessed by ill-conceived parameters such as citation indices, h-factors, and worst of all, impact factors of journals… ‘Judging the ability of a scientist by his h- factor amounts to choosing wine according to the price of the bottle, Swiss cheese by measuring the size of its holes, and choco- late by its sugar content.’”
      ____________________________
      [1.5] R.R. Ernst (Nobel prize in Chemistry), “The Follies of Citation Indices and Academic Ranking Lists A Brief Commentary to ‘Bibliometrics as Weapons of Mass Citation’,” Chimia, Vol. 64, No. 1/2, 2010, p. 90.
      http://www.chab.ethz.ch/personen/emeritus/rernst/publications
      “The present hype of bibliometry made it plainly obvious that judging the quality of science publications and science projects by bibliometric measures alone is inadequate, and reflects the inadequacy of science man- agement regimes staffed by non-scientific administrators or by pseudo-scientists who failed to develop their own personal judgment.”

      ==============================
      2. Articles in newspapers
      ____________________________
      [2.1] D.D. Guttenplan, Questionable Science behind Academic Rankings, New York Times, November 14, 2010
      http://www.nytimes.com/2010/11/15/education/15iht-educLede15.html?pagewanted=all
      “.. the list [the 2010 Times Higher Education ranking of world universities] also ranked Alexandria [the Egyptian university] fourth in the world in a subcategory that weighed the impact of a university’s research — behind only Caltech, M.I.T. and Princeton, and ahead of both Harvard and Stanford. … Dr. Hazelkorn also questioned whether the widespread emphasis on bibliometrics — using figures for academic publications or how often faculty members are cited in scholarly journals as proxies for measuring the quality or influence of a university department — made any sense. “I understand that bibliometrics is attractive because it looks objective. But as Einstein used to say, ‘Not everything that can be counted counts, and not everything that counts can be counted.”
      ____________________________
      [2.2] D. Colquhoun, “Publish-or-perish: Peer review and the corruption of science,” The Guardian, September 5, 2011
      http://www.guardian.co.uk/science/2011/sep/05/publish-perish-peer-review-science?fb=optOut
      “To have “written” 800 papers is regarded as something to boast about rather than being rather shameful. … The way to improve honesty is to remove official incentives to dishonesty.”

      ==============================
      3. Institutional reports and statements
      ____________________________
      [3.1] Joint Committee on Quantitative Assessment of Research, Citation Statistics – A report from the International Mathematical Union (IMU) in cooperation with the International Council of Industrial and Applied Mathematics (ICIAM) and the Institute of Mathematical Statistics (IMS), Robert Adler, John Ewing (Chair), Peter Taylor, released: 6 November 2008, corrected version: 6 December 08
      http://www.iciam.org/QAR/CitationStatistics-FINAL.PDF
      “Thus, while it is incorrect to say that the impact factor gives no information about individual papers in a journal, the information is surprisingly vague and can be dramatically misleading….Once one realizes that it makes no sense to substitute the impact factor for individual article citation counts, it follows that it makes no sense to use the impact factor to evaluate the authors of those articles, the programs in which they work, and (most certainly) the disciplines they represent.”
      ____________________________
      [3.2] Higher Education Funding Council for England (HEFCE), Report on the pilot exercise to develop bibliometric indicators for the Research Excellence Framework , released: September 2009.
      http://www.hefce.ac.uk/pubs/hefce/2009/09_39/
      “Key points. 8. Bibliometrics are not sufficiently robust at this stage to be used formulaically or to replace expert review in the REF. However there is considerable scope for citation information to be used to inform expert review. 9. The robustness of the bibliometrics varies across the fields of research covered by the pilot, lower levels of coverage decreasing the representativeness of the citation information. In areas where publication in journals is the main method of scholarly communication, bibliometrics are more representative of the research undertaken.“
      ____________________________
      [3.3] House of Commons, Science and Technology Committee, Peer review in scientific publications, Eighth Report of Session 2010–12, released: 28 July 2011.
      http://www.publications.parliament.uk/pa/cm201012/cmselect/cmsctech/856/856.pdf
      “David Sweeney [Director HEFCE]: With regard to our assessment of research previously through the Research Assessment Exercise and the Research Excellence Framework, we are very clear that we do not use our journal impact factors as a proxy measure for assessing quality. Our assessment panels are banned from so doing. That is not a contentious issue at all.
      Sir Mark Walport: I would agree with that. Impact factors are a rather lazy surrogate. We all know that papers are published in the “very best” journals that are never cited by anyone ever again. Equally, papers are published in journals that are viewed as less prestigious, which have a very large impact. We would always argue that there is no substitute for reading the publication and finding out what it says, rather than either reading the title of the paper or the title of the journal.
      Professor Rylance: I would like to endorse both of those comments. I was the chair of an RAE panel in 2008. There is no absolute correlation between quality and place of publication in both directions. That is you cannot infer for a high-prestige journal that it is going to be good but, even worse, you cannot infer from a low-prestige one that it is going to be weak. Capturing that strength in hidden places is absolutely crucial.
      Q256 Stephen Mosley: … a concern that the Research Excellence Framework panels in the next assessment in 2014 might not operate in the same way. Can you reassure us that they will be looking at and reading each individual paper and will not just be relying on the impact?
      David Sweeney: I can assure you that they will not be relying on the impact. The panels are meeting now to develop their detailed criteria, but it is an underpinning element in the exercise that journal impact factors will not be used. I think we were very interested to see that in Australia, where they conceived an exercise that was heavily dependent on journal rankings, after carrying out the first exercise, they decided that alternative ways of assessing quality, other than journal rankings, were desirable in what is a very major change for them, which leaves them far more aligned with the way.”
      ____________________________
      [3.4] Kim Carr (Australian Minister for Innovation, Industry, Science and Research), Ministerial statement to the Senate Economics Legislation Committee – Improvements to Excellence in Research for Australia (ERA), May 30, 2011.
      http://minister.innovation.gov.au/carr/mediareleases/pages/improvementstoexcellenceinresearchforaustralia.aspx
      “There is clear and consistent evidence that the [journal] rankings were being deployed inappropriately within some quarters of the sector, in ways that could produce harmful outcomes, and based on a poor understanding of the actual role of the rankings. One common example was the setting of targets for publication in A and A* journals by institutional research managers.In light of these two factors – that ERA could work perfectly well without the rankings, and that their existence was focussing ill-informed, undesirable behaviour in the management of research – I have made the decision to remove the rankings, based on the ARC’s expert advice.”
      ____________________________
      [3.5] Code of Practice – European Mathematical Society, p. 5
      http://www.euro-math-soc.eu/system/files/COP-approved.pdf
      “1. Whilst accepting that mathematical research is and should be evaluated by appropriate authorities, and especially by those that fund mathematical research, the Committee sees grave danger in the routine use of bibliometric and other related measures to assess the alleged quality of mathematical research and the performance of individuals or small groups of people.
      2. It is irresponsible for institutions or committees assessing individuals for possible promo- tion or the award of a grant or distinction to base their decisions on automatic responses to bibliometric data.”
      ____________________________
      [3.6] On the use of bibliometric indices during assessment – European Physical Society, p. 2
      http://www.eps.org/news/94765/
      “The European Physical Society, in its role to promote physics and physicists, strongly recommends that best practices are used in all evaluation procedures applied to individual researchers in physics, as well as in the evaluation of their research proposals and projects. In particular, the European Physical Society considers it essential that the use of bibliometric indices is always complemented by a broader assessment of scientific content taking into account the research environment, to be carried out by peers in the framework of a clear code of conduct.”
      ____________________________
      [3.7] Du Bon Usage de la Bibliometrie pour l’Évaluation Individuelle des Chercheurs”- Institut de France, Académie des Sciences, p. 5
      http://www.academie-sciences.fr/activite/rapport/avis170111gb.pdf
      “Any bibliometric evaluation should be tightly associated to a close examination of a researcher’s work, in particular to evaluate its originality, an element that cannot be assessed through a bibliometric study.”
      ____________________________
      [3.8] DORA (la San Francisco Declaration on Research Assessment – http://am.ascb.org/dora/) è stata sottoscritta da 407 organizzazioni (comprese riviste come Science, Plos e PNAS) e 9.492 individui, vedi anche https://www.roars.it/online/dora/.
      “1. Avoid using journal metrics to judge individual papers or
      individuals for hiring, promotion and funding decisions.

      2. Judge the content of individual papers and take into
      account other research outputs, such as data sets, software
      and patents, as well as a researcher’s influence on policy
      and practice.”

      Di seguito alcune delle 407 organizzazioni che hanno sottocritto DORA:
      – American Association for the Advancement of Science (AAAS)
      – American Society for Cell Biology
      – British Society for Cell Biology
      – European Association of Science Editors
      – European Mathematical Society
      – European Optical Society
      – European Society for Soil Conservation
      – Federation of European Biochemical Societies
      – Fondazione Telethon
      – Higher Education Funding Council for England (HEFCE)
      – Proceedings of The National Academy Of Sciences (PNAS)
      – Public Library of Science (PLOS)
      – The American Physiological Society
      – The Journal of Cell Biology
      – Institute Pasteur
      https://www.roars.it :-)
      – CNRS – University Paris Diderot
      – INGM, National Institute of Molecular Genetics; Milano, Italy
      – Université de Paris VIII, France
      – University of Florida
      – The European Association for Cancer Research (EACR)
      – Ben-Gurion University of the Negev
      – Université de Louvain
      ____________________________
      [3.9] IEEE Board of Directors: Position Statement on “Appropriate Use of Bibliometric Indicators for the Assessment of Journals, Research Proposals, and Individuals”.
      https://www.roars.it/online/wp-content/uploads/2013/11/IEEE-Bibliometric-Statement.pdf

  9. Caro Prof. Baccini, comprendo bene il senso della sua analisi, ma il riferimento al “potere”, nel caso del settore in questione, rischia di risultare fuorviante. Nelle letture che sono state date di tutta questa faccenda – indecorosa faccenda – sembra essere sfuggito a molti un dettaglio tutt’altro che trascurabile. Di potere accademico, all’interno della corporazione degli storici economici, al momento ne vedo ben poco. In passato c’è stato (e come negarlo?!). Proprio quel potere, ad alcuni così inviso, garantiva che le scelte fossero operate, se non in modo meritocratico, con un minimo di equilibrio ossia evitando che venissero commesse palesi ingiustizie. Se all’indomani dell’ASN la storia economica è ridotta in questo triste stato, lo si deve al fatto che quegli antichi rapporti di forza sono andati in frantumi. Oggi siamo di fronte a un settore di cani sciolti, dove ognuno si sente libero di fare quel che crede (con gli strumenti interpretativi di cui dispone naturalmente!), non ci sono maggioranze e minoranze ma gente che si trova “lì per caso” e maldestramente agisce. Mi lasci infine dire che, pur condividendo in gran parte gli auspici e i suggerimenti da lei formulati in chiusura, provo una certa nostalgia per i tempi andati. Non saranno stati tempi edificanti, ma erano certamente tempi migliori.

  10. Trovo che riferire la discussione, di volta in volta, ad un singolo SSD ed alla sua vicenda abilitativa possa essere discusso. Si tratta, infatti, a mio avviso, di decidere se si vuole, dal particolare risalire al generale, e non mi pare si voglia farlo in nessuna delle discussioni che da anni si avvicendano intorno a questo tema o se, come io ritengo meglio, non si debba procedere dal generale al particolare.
    La ASN dovrebbe essere decisa, o almeno si dovrebbe tentare, in termini di validità generale, Che non sia così, ab initio, è dimostrato dal fatto che esistono DUE ASN. Settori bibliometrici e non. Figli e figliastri. Stupisce che, a sollevare problemi ed eccezioni di eticità siano proprio i settori non bibliometrici che, con tutto il rispetto e (per parte mia) l’amore a loro dovuto, sono stati certamente meno vessati dall’abilitatore. Quanto poi al fatto che anche in questo caso si siano commesse evidenti mascalzonate… il lupo perde il pelo.
    E’ chiaro che il mio parere è negativo per tutto il meccanismo e non per un SSD disciplinare in particolare.

    Pensierino marginale. Pensare, come molti ancora si ostinano a fare, anche su queste pagine, che sia corretto valutare la decenza (accademica s’intende e spero) con un sistema che penalizza algoritmicamente chi ha un poco di anzianità in più, è francamente risibile e testimonia, appunto, di chi la decenza (accademica) non la conosce.

    Affidare agli Atenei – o a quel che ne resta – la responsibilità di arruolare il candidato giudicato più idoneo ai suoi fini di sviluppo didattico, scientifico, culturale è proposta improponibile in questo paese. Già conosco, al proposito, il pensiero dominante. Peccato che le interviste e la competizione sul posto funzionino ovunque nel mondo. Troppo facile per noi…

    Con viva cordialità…

    • @ Felici
      “Stupisce che, a sollevare problemi ed eccezioni di eticità siano proprio i settori non bibliometrici che, con tutto il rispetto e (per parte mia) l’amore a loro dovuto, sono stati certamente meno vessati dall’abilitatore.”

      Scusami, ma questa affermazione è falsa; come si può agevolmente vedere qui:
      https://infogr.am/abilitazioni-2012?src=web
      con la parziale eccezione dell’area 13, le percentuali di abilitati nelle aree non bibliometriche sono decisamente basse, con casi eclatanti come l’area 14 (27,3% di abilitati in seconda fascia).

    • @Proietti: Mi scuso. La sintesi è spesso veicolo di equivoci. Alludevo semplicemente al fatto che, almeno in una fase iniziale, i candidati di settori non bibliometrici sembravano essere giudicati con criteri più “agevoli” da raggiungere (n. di mediane, per esempio, farsa della collocazione delle riviste in una fascia o in un’altra, come ampiamente seguito da ROARS, eccetera). Non intendevo alludere alle dimensioni del collo di bottiglia allestito dai maestri vetrai delle singole commissioni. Tuttavia, non mi pare che il numero di abilitati possa essere ritenuto un criterio valido per giudicare del rigore e della correttezza dell’agire delle commissioni, soprattutto se, come nel mio caso, si ritiene che tutto il sistema sia da rigettare perchè falso dalle fondamenta.

  11. Il caso della storia economica a me pare interessante e didattico (non solo perché sono uno storico economico). Si tratta di un piccolo settore (in realtà macro-settore), con una tradizione illustre ma difficile da rinnovare, che vive all’interno di un’area che ha sempre voluto inghiottirla, quella di economia, che vive di metodi molto diversi.
    In un momento di restrizione, è facile allora che il cane più grosso (economia) voglia mangiarsi quello più piccolo (storia). Niente di più facile che per farlo questo grosso cane impieghi studiosi che sono di fatto degli economisti applicati alla storia, come loro stesso si definiscono.
    Il nobel, che poco sa della situazione italiana, si è limitato ad applicare il suo endorsement nei confronti di bravi, bravissimi studiosi di economia applicata alla storia. Non è colpa sua: non conosce cosa è, o cosa fa, la storia economica in Italia-
    Guardiamo però le colpe del cane grosso. Siamo sicuri che una serie di scienze così disancorate dalla realtà come le economie sono oggi (io vedo solo numeri), non abbia bisogno di una scienza pratica, di una scienza del futuro come la storia (studiare archivi vuol dire studiare il presente e il futuro)?
    Dunque, la contrapposizione di cui si nutre il settore bene riassume quella in atto nelle aree. E’ una lotta tra due metodi (e persone) che non si capiscono, al fine di ottenere le poche risorse ormai all’interno del sistema.
    Ci sono però due basilari differenze.
    La prima. Gli economisti storici vogliono risorse perché obbediscono al cane grosse, e alla fine faranno sparire dentro le scienze dei numeri applicati alla realtà, la storia. Sia come settore, sia come metodo, sia come ricchezza culturale di un paese possibile (quello della cultura dentro l’economia).
    La seconda. L’ASN ha formulato regole precise, forse discutibili, ma chiare e in linea con la tradizione del settore (premia le monografie, i lavori su fonti archivistiche e via dicendo). La VQR siamo sicuri che abbia avuto la stessa onestà? I problemi che sono emersi tempo fa e che anche ROARS aveva evidenziato, mi pare sollevino pesanti dubbi in proposito.

    • @ ecolombo : alla tua ricostruzione, secondo me corretta, manca un dettaglio: è stato il “cane piccolo” ad affidarsi al “cane grosso” pensando che sedere tra le sue zampe lo avrebbe protetto da quelli che riteneva “cani grossi” più pericolosi, quelli dell’area 11.
      Probabilmente ha sbagliato strategia (oltre che, secondo me, avere interpretato in maniera angusta e, alla fine, suicida le prospettive della disciplina).

    • @alice clark. Hai perfettamente ragione. Ad aggravare il quadro c’è che, proprio nel momento in cui servirebbe progettualità scientifica, si va avanti a colpi di tatticismi con lo spirito di chi tira a campare. Invece di incoraggiare un serio dibattito tra i suoi soci sul futuro della disciplina, la SISE in tutta questa vicenda è una specie di fantasma. Temo che, nel momento in cui il macrosettore si esaurirà per ragioni numeriche, anche la SISE evaporerà: non avrà più alcun motivo per esistere un’associazione del genere.

      @ecolombo. D’accordo, il gioco di quelli che tu chiami “economisti storici” è molto chiaro. Il cosiddetto Nobel e i suoi seguaci hanno agito per proteggere i loro (pochi) supporter italiani. Non solo non hanno letto le carte, non sapendo la lingua, ma secondo me non gli hanno neppure passato un elenco dei candidati. Comunque, al di là dei risvolti folkloristici della vicenda, che sembrano pensati per lo scandalismo a buon mercato dei giornali, L’OPERATO DELLA COMMISSIONE ASN E’ OGGETTIVAMENTE INDIFENDIBILE. Non si tratta di essere economisti storici o storici economici. Leggere quei giudizi porta a chiedersi su quale pianeta viva chi li ha scritti a prescindere da tutto il resto. C’è un commissario che semina sistematicamente virgole tra il soggetto e il verbo: ma vi rendete conto?

  12. I glottologi di una volta sono morti o andati tutti in pensione e hanno prodotto allievi come questi. Credo poi che si stupirebbero moltissimo della sudditanza anglocentrica ossessivamente ripetuta a ogni intervista. Si chiama conformismo o, anche, mentalità degli schiavi.

  13. Intervengo per chiarire alcuni punti del mio post che so dare luogo a interpretazioni che non ritengo corrette.

    A. Per quanto riguarda la VQR di storia economica:
    1. NON ho mai sostenuto e non mi sognerei mai di sostenere che il processo di peer review sia stato condotto in modo non corretto. Nel post sostengo una cosa ben diversa. Il GEV13 ha adottato una lista di riviste che non riflette la produzione di articoli prevalente nella comunità nazionale degli storici economici. Anche in conseguenza di questo una quota molto elevata di prodotti è andata in peer review. I prodotti sottoposti a peer review hanno ricevuto in tutta la VQR (lo scrive la stessa ANVUR) voti sistematicamente inferiori a quelli dei prodotti valutati bibliometricamente, anche a causa di una scheda di valutazione mal-concepita. Questo meccanismo ha prodotto i voti riportati nel rapporto finale di area13 per storia economica.
    2. Di fatto coloro cui è stato attribuito il potere di definire la lista di riviste VQR hanno determinato l’esito del risultato VQR. Il punto chiave del mio ragionamento è: se il GEV avesse avuto una composizione diversa ed avesse adottato una lista di riviste diversa (per esempio quella messa a punto dalla SISE cui fanno riferimento i commissari ASN) il mix di lavori sottoposti alla VQR sarebbe stato diverso in termini di tipologie; e un numero minore sarebbe stato sottoposto a peer review. I risultati della VQR sarebbero con ogni probabilità stati molto diversi. [La quota di peer review è infatti correlata inversamente al voto medio settoriale, come mostrato in un mio post precedente https://www.roars.it/online/lo-strano-caso-delle-concordanze-della-vqr/%5D.
    3. So che sta circolando una lettera SISE in cui si utilizza il post appena citato https://www.roars.it/online/lo-strano-caso-delle-concordanze-della-vqr/ per chiedere ad ANVUR spiegazioni sulle procedure di peer review. In quel post sostengo che gli elevati livelli di concordanza rilevati in Area13 tra risultati peer review e bibliometrici sono semplicemente il risultato delle procedure di peer review utilizzate. Le anomalie che ho tentato di documentare non hanno alcuna rilevanza ai fini dei risultati finali della VQR, visto che il GEV nei casi di doppia valutazione ha utilizzato i soli risultati bibliometrici. A fortiori non hanno nessuna rilevanza sui risultati della VQR di storia economica riportate qua sopra.

    B. Per quanto riguarda la ASN il discorso è più semplice, ma anche molto più delicato:

    1. La commissione è stata estratta tra i candidati commissari che superavano le mediane;
    2. La commissione ha rispettato in pieno le mediane, visto che nessuno è stato abilitato senza aver superato almeno una mediana; la lista di riviste messa a punto da ANVUR è stata formalmente rispettata;
    3. questo non ha impedito che gli esiti siano stati clamorosi, tanto da spingere i maggiori storici economici mondiali ad intervenire con una lettera durissima;
    4. Se l’estrazione della commissione avesse dato esiti diversi -sarebbe bastata forse l’estrazione di uno storico economico quantitativo (come si diceva ai miei tempi) o di uno storico dell’economia politica (con propensione teorica) – probabilmente i risultati finali sarebbero stati molto diversi e la lettera di North et al. non sarebbe mai arrivata.

    Nel post sostengo che tutto questo è accaduto perché le istituzioni (VQR e ASN) sono state maldisegnate dal legislatore (e da ANVUR per quanto di sua competenza).

    Chiudo con una ultima notazione. Molti candidati si sono visti considerare non valutabili lavori a più mani perché il loro contributo non sarebbe individuabile. Nel 2014 questa cosa è a mio parere davvero incredibile. Il fenomeno del “demise of the lone author” è documentato ormai da decenni di dati bibliometrici. La prassi internazionale anche per le scienze sociali è sintetizzata da M. Greene in un articolo dedicato al tema e apparso su Nature nel 2007: “The ruling convention of multiple authorship is that all authors shared in the work more or less equally and, if the first author or two takes the role of ‘first among equals’, all listed authors take full credit for the contents of the paper. This is easy enough to swallow where three or four authors are concerned, harder when there are eight to ten authors, and almost impossible with twenty or fifty — let alone hundreds, as in some sequencing papers” (Greene 2007).

  14. Ieri la SISE ha diffuso una lettera in risposta a quella dei 12 storici economici stranieri. E’ firmata congiuntamente dai direttivi SISE e AISPE. Varrebbe la pena che fosse fatta oggetto di pubblica discussione. Dopo averla letta non posso trattenermi dal fare un paio di osservazioni. La difesa dell’operato della “Commission” (sic! ma come si fa a tradurre commissione “commission”? è basata su due punti: 1) il vincolo dato dalle “Government regulations which, while they may seem anachronistic, must be adhered to” e 2) il rifiuto della bibliometria in nome dell’analisi contenutistica. La 1 sta a metà tra il burocratese della Pravda anni ’60 e l’italico “piove, governo ladro!” La 2 è totalmente irrilevante rispetto agli argomenti sollevati dai Dodici, che di tutto parlano men che di bibliometria.
    Temo che un simile documento non possa che peggiorare la situazione (leggi reputazione) della disciplina italiana. Non so, magari qualche burocrate ministeriale lo troverà convincente. Ma davvero pensano, i direttivi in questione, che con argomenti di questo spessore si possa, nell’anno del Signore 2014, sostenere un dibattito in qualsiasi sede internazionale?

    • @montezuma
      due precisazioni: 1) nella lettera non si difende affatto la Commissione, si fa solo presente che alcune delle critiche mosse dai 12 fanno riferimento a pratiche definite per legge; siamo o non siamo dipendenti pubblici? Se sì, dobbiamo rispettare le norme del MIUR, anacronistiche o meno che siano; se no allora rinunciamo al nostro stipendio fisso e ci mettiamo sul mercato;
      2) i 12 non parlano di bibliometria, certo, ma costruiscono un giudizio di merito SOLO basandosi sulle citazioni.

  15. C’è qualche contraddizione in questa tesi che credo meriti di essere evidenziata, perchè a una attenta lettura dei risultati dell’ASN due dei firmatari della lettera inserita da Baccini in http://www.historyofeconomicideas.com/Letter_to_Italian_ASN_7_April_2014.pdf
    e precisamente Luca Fiorito e Nicola Giocoli hanno ottenuto dalla commissione 13/C1 valutazioni eccellenti, probabilmente le migliori fra tutti i candidati. E allora?

    • Gentile eliana84,
      solo per chiarirle che la lettera di cui lei parla è stata firmata dal sottoscritto in quanto co-editor, con i proff. Faucci e Marchionatti, della rivista HEI – History of Economic Ideas e solo perché, come evidente anche ad una sommaria lettura, essa non contiene altro che l’affermazione di una politica editoriale (statement of editorial policy) che HEI, come le altre principali riviste di settore, adotta, ed ha sempre adottato, in caso di saggi co-autorati. Nessun giudizio sui lavori della commissione 13C1, quindi, ma solo una dichiarazione, auspicabilmente utile, su come gli editors di tali riviste interpretano lavori a quattro e più mani [tipologia della quale il mio CV, disponibile on line, è peraltro sprovvisto, salva un’opera “giovanile”].
      Le segnalo altresì che, proprio al fine di evitare qualsiasi strumentalizzazione, NON ho firmato la lettera congiunta dell’Associazione Italiana per la Storia del Pensiero Economico – AISPE, del cui direttivo faccio parte, con la SISE proprio perché in tale lettera, al contrario dell’altra, si esprimeva un giudizio ufficiale a nome di due associazioni scientifiche sull’operato della commissione. Giudizio dal quale ho ritenuto, per evidenti motivi, assolutamente doveroso astenermi.
      Come la pensi poi a titolo personale sui lavori della commissione, e sull’ASN nel complesso, è cosa diversa e, credo, abbastanza nota a chi legge Roars e sulla quale, comunque, non intendo tornare.
      Con i più cordiali saluti,
      Nicola Giocoli

  16. Gentile eliana84,
    essendo stato chiamato in causa mi sento anche io per così dire “costretto” ad intervenire. Come nel caso di Nicola, la lettera a cui lei si riferisce è stata firmata dal sottoscritto in quanto co-editor di Research in the History of Economic Thought and Methodology. Non so, se come lei afferma, io abbia ottenuto dalla commissione 13/C1 “valutazioni eccellenti, probabilmente le migliori fra tutti i candidati.” Lo prendo come un complimento e la ringrazio. Ciò che so con certezza, tuttavia, è che ben sette delle pubblicazioni da me presentate (di cui quattro in fascia A peraltro) sono state ritenute non valutabili in quanto “non è distinguibile l’apporto individuale del candidato.” (devo far notare che un commissario ha assunto una posizione diversa dagli altri affermando invece che “l’apporto individuale nei lavori in collaborazione è generalmente significativo”). Non occorre che mi dilunghi sulla assurdità di questo perche lo hanno già fatto benissimo Baccini ed altri colleghi. Mi lasci aggiungere però una nota personale. Io sono una persona che vive e lavora con forti difficoltà visive. Non voglio dilungarmi su questo e la prego di credermi. Collaborare con altri, specialmente quando i miei lavori necessitano di ricerche di archivio – come spesso nel mio campo accade – diventa per il sottoscritto una vera e propria esigenza, oltre che una immensa possibilità di crescita professionale. Veder liquidati alcuni dei miei migliori scritti (migliori bibliometricamernte sia ben inteso!) solo per il fatto che non abbia provveduto ad una minuziosa attribuzione dei singoli paragrafi mi amareggia profondamente.
    Cordialmente
    luca fiorito

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.