Nella prima tornata delle abilitazioni, due diverse commissioni si sono trovate a giudicare lo stesso candidato, che aveva presentato domanda su due diversi settori concorsuali di matematica. Secondo la Commissione Alfa, il fatto stesso che il candidato avesse dato una risposta ad un importante problema aperto, comporta una decisa valutazione positiva dell’ “impatto” della produzione scientifica del candidato. Anche la Commissione Omega parla di “ottimi” risultati, ma sembra ritenere che per partecipare ad un concorso per professore associato non basta aver conseguito “ottimi” risultati bisogna anche aver pubblicato molto ed essere stati molto citati. Il confronto tra i due diversi giudizi, uno positivo e l’altro negativo, sollecita una riflessione sull’uso degli indicatori bibliometrici e sul messaggio che ne deriva per i giovani studiosi.

 


 

Caro Direttore,

si è da tempo conclusa, almeno per la matematica, la prima tornata della Abilitazione Scientifica Nazionale. Sono anche scaduti i termini per possibili ricorsi ed è possibile discuterne i risultati senza timore di interferire sugli esiti. Non è certo la prima volta che commissioni nazionali si esprimono sulla qualità dei risultati della ricerca scientifica di candidati che aspirano all’assunzione o alla promozione nel sistema universitario italiano. Questa volta però le commissioni hanno deliberato in presenza di indicatori di qualità, predisposti da una autorità centrale (ANVUR). La stessa autorità aveva indicato soglie minime (le cosiddette “mediane”) che avrebbero dovuto essere raggiunte dagli indicatori, relativamente alla produzione scientifica dei candidati, per il conferimento della abilitazione scientifica. Come è noto le commissioni non erano obbligate a seguire strettamente le indicazioni dell’ANVUR, ma potevano discostarsene a loro discrezione. La possibilità effettiva di ignorare gli indicatori era, per la matematica, rafforzata dalle posizioni adottate dalla Unione Matematica Italiana, dalla Società Matematica Europea, e dalla International Mathematical Union, che mettevano in guardia contro i pericoli di utilizzare criteri “bibliometrici” per giudicare la qualità scientifica dei risultati individuali.

A mio parere però non tutte le commissioni di matematica hanno avuto il coraggio di discostarsi dalle indicazioni dell’ ANVUR, e di assumersi la responsabilità di scelte discrezionali. Io penso che questa mancanza di coraggio, o deliberata adesione alle indicazioni di una autorità centrale, possa avere effetti negativi non tanto sui risultati della ASN, quanto piuttosto sul messaggio che ricaveranno i giovani da questo tipo di valutazione.

Per illustrare il mio punto prenderò in esame i giudizi che due diverse commissioni hanno espresso sullo stesso candidato, che aveva presentato domanda su due diversi settori concorsuali di matematica e la cui produzione scientifica era stata giudicata pienamente pertinente ai due settori. Cercherò di proteggere l’identità di questo candidato, e con essa, le indicazioni delle commissioni che l’hanno giudicato, con esiti diversi. Chiamerò “Alfa” la commissione che lo ha promosso e “Omega” quella che lo ha bocciato. Ecco qui di seguito il giudizio della Commissione Alfa.

Il candidato [omissis] risulta borsista post-doc presso l’Università di [omissis]

Presenta solo 7 articoli su rivista, distribuiti uniformemente nel periodo che va dal 2005 al 2011, alcuni dei quali particolarmente corposi.

La sua attività di ricerca riguarda aspetti matematici [omissis].

Da un esame analitico delle singole pubblicazioni presentate risulta che, a giudizio della commissione, esse hanno qualità e collocazione editoriale eccellenti.

In particolare il candidato ha affrontato e brillantemente risolto un problema aperto [omissis] completando la dimostrazione del celebre teorema [omissis].

Per questo motivo la valutazione dell’importanza e dell’impatto della produzione scientifica del candidato è estremamente positiva.

Si deve far presente che inoltre il candidato ha ricevuto premi e riconoscimenti di assoluto prestigio.

Sulla base di queste valutazioni, la commissione unanime esprime giudizio positivo per quanto riguarda l’abilitazione alle funzioni di professore di seconda fascia.

Segue ora il giudizio della Commissione Omega

Delle 7 pubblicazioni presentate, una è la tesi di dottorato del 2009 e 6 sono articoli pubblicati su riviste scientifiche nei due periodi 2005-2006 (due articoli in collaborazione con [omissis]) e 2010-2011 (quattro articoli in collaborazione con [omissis]).

Le tematiche trattate, che riguardano principalmente questioni connesse alla teoria [omissis], rientrano pienamente tra le discipline del settore concorsuale. Il contributo individuale ai lavori in collaborazione è paritetico. Oltre agli articoli presentati, il candidato non ha pubblicato altri articoli su riviste.

Da un esame analitico delle singole pubblicazioni presentate risulta che, a giudizio della commissione, non sono presenti risultati di rilievo eccezionale, il numero limitato di articoli su rivista è un elemento fortemente negativo. Pur essendoci buoni risultati, talora ottimi, il contributo complessivo alle ricerche del settore di queste pubblicazioni non è ancora adeguato alla funzione di professore associato. La loro collocazione editoriale varia tra una delle migliori riviste di matematica e riviste di livello più modesto. Il loro impatto sulla comunità matematica è stato finora molto limitato. Dei tre indicatori dell’impatto dell’intera produzione scientifica comunicati dal CINECA, almeno due non superano le mediane. La valutazione dell’importanza e dell’impatto della produzione scientifica complessiva è quindi negativa.

Sulla base di queste valutazioni, la commissione unanime esprime giudizio negativo in merito all’abilitazione alle funzioni di professore associato.

Sembra chiaro che la Commissione Alfa abbia ignorato gli indicatori dell’ANVUR, come pure il numero limitato dei lavori presentati e abbia basato il suo giudizio sui risultati ottenuti dal candidato. Secondo la Commissione Alfa il fatto stesso che il candidato abbia dato una risposta ad un importante problema aperto, comporta una decisa valutazione positiva dell’ “impatto” della produzione scientifica del candidato. La Commissione Alpha si è quindi discostata dalla valutazione usuale dell’ “impatto” basata sul numero delle citazioni.

Al contrario, la Commissione Omega ha tenuto conto dei valori degli indicatori (si parla delle famose “mediane”) ed ha giudicato prevalentemente sulla base del numero dei lavori e dell’”impatto” determinato presumibilmente dal numero di citazioni. Anche la Commissione Omega parla di “ottimi” risultati, ma sembra ritenere che per partecipare ad un concorso per professore associato non basta aver conseguito “ottimi” risultati bisogna anche aver pubblicato molto ed essere stati molto citati.

A me sembra che la Commissione Alfa si sia mossa in coerenza con la tradizione dei matematici che sono abituati a dare importanza alla qualità dei risultati, indipendentemente dal numero dei lavori nei quali sono riportati e dal numero delle citazioni che questi lavori ricevono.

Al contrario il messaggio che si ricava dal giudizio espresso in questo caso (ed altri) dalla Commissione Omega è che conviene massimizzare il numero dei lavori e delle citazioni ricevute. Non è, a mio parere, un messaggio utile allo sviluppo della matematica in Italia. Sono possibili ovviamente altre opinioni.

Alessandro Figà Talamanca

Riproduzione della lettera al Direttore del Notiziario dell’Unione Matematica Italiana

Send to Kindle

95 Commenti

  1. Concordo con il prof. Figa’ Talamanca che la frase della commissione Omega “Dei tre indicatori dell’impatto dell’intera produzione scientifica comunicati dal CINECA, almeno due non superano le mediane. ” non appartiene alla tradizione dei matematici .
    Comunque lavori completamente ignorati dalla comunità e pubblicati su riviste di secondo piano spesso (ma non sempre) sono mediocri lavori di scuola. Ecco perché le commissioni si fanno con i professori universitari e non con le segretarie esperte di Excel.
    La differenza a mio avviso dirimente nei due giudizi e’ il fatto che commissione ALFA
    giudizio sulle pubblicazioni
    – “hanno qualità e collocazione editoriale eccellenti…”

    rileva inoltre la presenza di un risultato ECCELLENTE
    -” In particolare il candidato ha affrontato e brillantemente risolto un problema aperto [omissis] completando la dimostrazione del celebre teorema …..”

    Al contrario la commissione OMEGA scrive
    – ” Da un esame analitico delle singole pubblicazioni presentate risulta che, a giudizio della commissione, non sono presenti risultati di rilievo eccezionale ”
    – “La loro collocazione editoriale varia tra una delle migliori riviste di matematica e riviste di livello più modesto..”

    Non so chi e’ il candidato, avrei potuto identificarlo facilmente ma mi sono imposto di non farlo, non voglio percio’ entrare nel merito mi limito ad analizzare il lavoro delle commissioni. Mi pare evidente che le due commissioni hanno un giudizio di MERITO totalmente differente.

    Sono sicuro che se la commissione OMEGA avesse condiviso il giudizio sul carattere eccezionale della pubblicistica non si sarebbe fatta bloccare dai parametri bibliometrici. Che sono,nella tradizione della matematica, un elemento di giudizio da non escludere ma decisamente SECONDARIO.

    Il numero di lavori molto limitato (con un buco di produzione di 4 anni evidenziato dal verbale della commissione OMEGA) mi pare invece un elemento molto negativo anche in presenza del risultato eccellente evidenziato da ALFA.

    Il diverso risultato non mi pare sia dovuto alle bibliometrie ma invece a legittime divergenze di valutazione di merito da parte dei commissari.

    • Appare più che lecito sospettare che la frase “Da un esame analitico delle singole pubblicazioni presentate risulta che, a giudizio della commissione, non sono presenti risultati di rilievo eccezionale” sia flatus vocis puramente perfuntoriale, una frase di circostanza. Se “un esame analitico” avesse avuto luogo, la conclusione sarebbe stata diversa. Quindi non si tratta di un “legittima divergenza di giudizio” ma del risultato di una applicazione cieca dei “criteri bibliometrici”, che sono parte del vaniloquio numerologico che sta distruggendo l’università italiana.
      Per quanto riguarda il sapiente uso combinato della valutazione di merito con quella bibliometrica, di cui parla il prof. Mingione, si tratta evidentemente di un qualcosa di cui al momento non è dato trovare traccia alcuna nella prima tornata di cui in oggetto. Che poi, nella serie storica, la discrezionalità di cui sopra sia servita più nel male che nel bene è cosa tutta da dimostrare. A partire da una premessa discutibile (che a mio avviso è falsa) si pretende di introdurre una supposta panacea che però ha effetti distruttivi (credo che non sia corretto attribuire al prof. Mingione questa pretesa, visto che egli parla appunto del sapiente uso combinato di cui sopra; dico solo che si fa illusioni). Le parole degli accademici dei Lincei mi sembrano molto chiare al riguardo.
      Che poi sia “elemento molto negativo” che un ricercatore scelga di investire, a suo rischio e pericolo, alcuni anni della propria esistenza su un problema difficile, mi sembra tutto da discutere.

    • Fausto di Biase scrive: ” Quindi non si tratta di un “legittima divergenza di giudizio” ma del risultato di una applicazione cieca dei “criteri bibliometrici”, che sono parte del vaniloquio numerologico che sta distruggendo l’università italiana. ”

      Non sono affatto d’accordo. Io sono personalmente nemico delle bibliometrie, ho fatto parte di comitato EMS che hanno prodotto documenti durissimi in materia, ma nel caso specifico, dove si evidenzia una produzione scarsa e discontinua, ci deve essere qualcosa di veramente straordinario per giustificare una promozione in questa situazione. La discrezionalità’ delle commissioni e’ inevitabile soprattutto se vogliamo togliere potere ai numeretti. Nella loro legittima discrezionalità’ 5 persone avevano l’opinione che il candidato meritasse la promozione per meriti straordinari e 5 la pensavano al contrario, cioè che poi aveva fatto poco e quello che aveva fatto non sembrava a loro tanto eccezionale. Oppure vogliamo teorizzare che certe persone se un giorno vengono benedette da qualche GRANDE PERSONAGGIO ILLUMINATO, per luce riflessa devono avere tutto nella vita, facendo molto poco per meritarselo ? I miei colleghi giapponesi dicono “lavoro e’ onore”.

    • Concordo con Piero Marcati; una totale mancanza di riferimenti oggettivi, freddi, porta a stabilire criteri assai pericolosi, assai più pericolosi che quello di usare le citazioni in modo automatico (cosa che deploro). Vorrei infatti ricordare che la matematica (ma la cosa si applica a tutti i settori) è disciplina assai specialistica, e ricorrere a pareri esterni, durante i lavori di una commissione è pratica non solo normale ma anche doverosa (chi crede che una commissione possa giudicare i lavori sottoposti criticamente senza chiedere ad altri è semplicemente in malafede). Può allora accadere che alcuni opinion leader (che Marcati chiama “grandi personaggi illuminati”) possano determinare pareri assai influenti e vincolanti, che in alcune occasioni possono anche essere frutto di disegni di natura non totalmente scientifica. Questo può accadere a ogni livello, e accade anche fuori Italia. E non sto parlando di pratiche di bassa natura baronale, che in Italia abbiamo avuto, e che qualcuno, come il collega di Biase, pare non aver visto.

    • Lei non conosce il caso, e quindi è difficile farsi un’idea precisa, ma mi chiedo come possa portare ad esempio una situazione simile chi, come il Prof Figà Talamanca, conosce in dettaglio sia il CV della candidata che come abbiano operato, in generale oltre che nel caso specifico, le due commissioni…

  2. “A me sembra che la Commissione Alfa si sia mossa in coerenza con la tradizione dei matematici che sono abituati a dare importanza alla qualità dei risultati, indipendentemente dal numero dei lavori nei quali sono riportati e dal numero delle citazioni che questi lavori ricevono.” — Purtroppo Figà Talamanca, nella sua lotta senza quartiere all’uso degli indici bibliometrici, dimentica una realtà assai triste: per anni, proprio approfittando di questa tradizione, hanno potuto fare carriera persone non sempre meritevoli. In commissione, c’era infatti spesso qualcuno pronto a dichiarare la natura fondamentale di lavori irrilevanti, in modo fin troppo discrezionale. Questa “discrezionalità” di cui parla è purtroppo spesso servita più nel male che nel bene, e un uso accorto degli strumenti bibliometrici ci avrebbe evitato situazioni assai imbarazzanti e anche commissioni con commissari non sempre all’altezza di capire e giudicare. Io credo che l’uso delle mediane sia effettivamente eccessivo, e sia frutto di una fretta legislativa di natura assai ideologica. Probabilmente la cosa più giusta sarebbe abbassare la soglia per i candidati, specialmente quando giovani (in modo da avere una soglia minima di impatto) e alzarla di molto per i commissari (si eviterebbe la possibilità di truccare le carte: organizzare gruppi di persone che si citano tra loro fino a raggiungere le mediane è facile, raggiungere una fascia del primo 5-10%, per dire, non lo è affatto, anzi, è quasi impossibile).
    Detto questo, credo che l’uso combinato della valutazione di merito con quello degli strumenti bibliometrici sia una cosa assai importante a cui non dobbiamo rinunciare.

    • Concordo. Qualche tempo fa ho scritto una storiellina su ROARS, che ripropongo.

      Commissario 1: Quello di Marco Arcimboldi Immanicati e’ un lavoro bellissimo, introduce una meravigliosa trasformazione tra operatori in spazi di Sobolev.

      Commissario 2: Si, ma e’ stato fatto 10 anni fa e nessuno ha utilizzato questa trasformazione. E’ il solo lavoro, per di piu’ a tre nomi, presentato da Arcimbildi Immanicati, e non ha citazioni.
      Invece, i 10 lavori di Roberto Sfigatich, dei quali 4 a singolo autore, mi sembrano interessanti, e sono molto citati.

      Commissario 1: Questo Sfigatich pubblica troppo, vuol dire che non pensa a quello che scrive. Inoltre, non si giudica un lavoro dalle citazioni che riceve, bisogna invece guardare il contenuto del lavoro. Quella di Marco Arcinboldi Immanicati e’ una trasformazione bellissima. Marco mi ha detto che gli ha scritto un e-mail Vladimir Arnold, congratulandosi per il brillante risultato.

      Commissario 2: Ma il lavoro e’ del 2011, e Arnold e’ morto nel 2010. La trasformazione e’ cosi favolosa, che gli hanno scritto addirittura dall’aldila? Beh, di fronte a tale prodigio di trasformazione, non resta che genuflettersi.

    • “organizzare gruppi di persone che si citano tra loro fino a raggiungere le mediane è facile, raggiungere una fascia del primo 5-10%, per dire, non lo è affatto, anzi, è quasi impossibile”
      ==================
      Remember M. El Naschie … ma anche il suo amico Ji-Huan He che ha raggiunto un h-index degno di un premio Nobel




      _________________________

      J.H. He era Editor in Chief dell’International Journal, le cui prestazioni citazionali erano tali da collocare il suo Impact Factor al di sopra di ogni altra rivista scientifica di matematica applicata.


      ______________________________
      L’ultima figura è tratta da “Nefarious Numbers” di Douglas N. Arnold and Kristine K. Fowler (Notices of the American Mathematical Society, VOLUME 58, NUMBER 3, 2011). D.N. Arnold è stato anche presidente della Society for Industrial Mathematics ed è proprio su SIAM News (http://www.siam.org/news/news.php?id=1663) che nel 2009 aveva denunciato le anomalie degli indicatori bibliometrici di M. El Naschie, il superman bibliometrico che aveva trascinato l’ateneo di Alessandria di Egitto al quarto posto mondiale della classifica citazionale 2010 di Times Higher Education (davanti ad Harvard e Stanford!). L’exploit era valso agli egiziani un 147-esimo posto nella classifica generale, un traguardo mai raggiunto da nessun ateneo italiano.
      “Nefarious Numbers” termina così:
      _______________________________
      “The consequences of this unfortunate situation are great. Rewards are wrongly distributed, the scientific literature and enterprise are distorted, and cynicism about them grows. What is to be done? Just as for scientific research itself, the temptation to embrace simplicity when it seriously compromises accuracy must be resisted. Scientists who give in to the temptation to suppress data or fiddle with statistics to draw a clearer point are censured. We must bring a similar level of integrity to the evaluation of research products. Administrators, funding agencies, librarians, and others needing such evaluations should just say no to simplistic solutions and approach important decisions with thoughtfulness, wisdom, and expertise.”

    • Il solito vizio dell’ing. Tabella de Tabellis: mostra 1 o 2 casi singoli (possibilmente con qualche centinaio di dati su tabella) per contestare una argomentazione.

      L’argomentazione NON e’ un teorema!!!

      Nei teoremi basta un contro esempio per distruggerli ma nelle argomentazioni non è cosi.

      Le argomentazioni non vogliono essere teoremi. Esse spesso descrivono un “comportamento collettivo medio” e non di singolo elemento.

      So che è difficile per un ingegnere. Ma io ci provo lo stesso. La cosa inquietante è che la mente tecnica dell’ANVUR sembra essere anche lui un ingegnere (con studi liceali classici).

      Fino a qualche anno fa pensavo che gli ingegneri fossero gli unici seri. Quelli che hanno salvato l’Italia dalla rovina. Ma ora non ne sono più cosi sicuro.

    • Mingione ha scritto: “raggiungere una fascia del primo 5-10%, per dire, non lo è affatto, anzi, è quasi impossibile”. Due personaggi come M. El Naschie e J.H. He ci sono riusciti al punto di trascinare ai vertici mondiali un’intera università e anche le loro riviste, oltre che se stessi. Dimostrano che non è così impossibile, soprattutto se l’ambizione è più modesta (entrare nel primo 5-10% italiano). Io non sono abituato a giudicare in base alle etichette (ingegneri contro fisici contro matematici etc), ma mi interessano gli argomenti. In ogni caso, ammesso che possa interessare, D.N. Arnold non è un ingegnere ma un matematico e mi sono limitato a riportare le sue analisi e le sue parole.
      Per chiudere, è abbastanza evidente che non ci troviamo di fronte a teoremi, ma a discussioni ricche di risvolti epistemologici. Per quanto non sia un argomento conclusivo, è giusto tener conto che diverse società scientifiche (American Mathematical Society, International Mathematical Union, European Physical Society, IEEE, per citarne alcune) esprimono posizioni del tutto coerenti con le preoccupazioni di A. Figà Talamanca. Anche il dibattito scientifico in sede scientometrica va nella stessa direzione e c’è una consapevolezza crescente nella comunità scientifica dei pericoli di un uso ingenuo e/o automatico degli strumenti bibliometrici. Non a caso la San Francisco Declaration on Research Assessment (DORA, vedi https://www.roars.it/online/dora/)) ha raccolto centinaia di adesioni istituzionali, persino da quelle riviste che beneficiano di “rendite di posizione bibliometriche”.
      A suo tempo, avevo raccolto una piccola antologia del dibattito internazionale: https://www.roars.it/online/rischio-e-ricerca/comment-page-1/#comment-25535

    • Infatti Giuseppe (De Nicolao) raggiungere il primo 5-10% è così difficile che chi ci riesce con mezzi non ortodossi viene prontamente scoperto, e, la rivista che ha utilizzato per farlo, viene squalificata. L’idea di citare casi singoli non mi sembra molto valida.

    • “chi ci riesce con mezzi non ortodossi viene prontamente scoperto”
      ======================
      Non così prontamente (ci sono voluti 18 anni):
      __________________________
      “In 1991 El Naschie founded the scientific journal Chaos, Solitons & Fractals,[8] initially with the British publisher Pergamon Press.[1] When Pergamon was sold, the journal passed to the Elsevier stable.[1] He served as its Editor-in-Chief until his retirement in 2009.”
      http://en.wikipedia.org/wiki/Mohamed_El_Naschie
      ======================
      “e, la rivista che ha utilizzato per farlo, viene squalificata”
      _____________________
      Nessuna squalifica. Le riviste di He e di El Naschie sono rimaste nei Journal Citation Reports di Thomson-Reuters e, come tali, sono entrate anche nella fascia di eccellenza della VQR. Nella classificazione bibliometrica dell’Area 9, la rivista di J.H. He è saldamente in fascia A per tutte e quattro le annate 2007-2010 (seconda nella sua categoria nel 2007 e prima classificata sia nel 2008, sia nel 2009).
      __________________________


      __________________________
      Quasi altrettanto bene è andata a Chaos Solitons and Fractals, la rivista di M. El Naschie, che è in fascia A nelle annate 2007-2009 e in fascia B nell’annata 2010.
      __________________________


      _________________________
      Se non erro, sembra che i matematici sono stati più accorti (o fortunati) e non abbiano inserito le due riviste nella loro classificazione che è stata elaborata con regole diverse, senza seguire pedissequamente Thomson-Reuters. Non ho sotto mano le liste dei fisici.
      ======================
      Per l’Italia, sarà interessante riparlarne tra un paio d’anni, quando forse sarà possibile raccogliere i dati per analizzare i comportamenti opportunistici indotti dalle mediane ANVUR.

    • “L’idea di citare casi singoli non mi sembra molto valida.”
      ===================================
      Credo che D.N. Arnold avesse in mente questa obiezione quando scriveva “The cases I have recounted are appalling, but clear-cut. Perhaps even more dangerous are the less obvious cases …”. Credo di fare cosa utile riportando i paragrafi finali di “Integrity under attack” (SIAM News 2009 , http://www.ima.umn.edu/~arnold/siam-columns/integrity-under-attack.pdf).
      ___________________________
      “One conclusion that I am ready to draw is that we need to back away from the use of bibliometrics like the impact factor in judging scientific quality. It has long been noted that what the impact factor measures is not well correlated with the quality of a journal, and even much less with the scientific quality of the papers appearing in it or of the authors of those papers. In our field, the 2008 IMU- ICIAM-IMS report Citation Statistics4 made that case eloquently. Less emphasized has been that these metrics are open to gaming, and are in fact being gamed; in some cases they are likely a better indicator of the unscrupulousness of the authors, editors, or publishers than of the quality of their work. Frequently, I hear of technical solutions, proposed in the hope that an adjustment to the formula—for example, increasing the time frame for the impact factor from 2 to 5 years, or excluding self-citations— will solve the problem. Such remedies, in my opinion, are doomed to failure. The numbers of citations to mathematical articles are small integers, with excellent papers often drawing lifetime totals of only tens or hundreds of citations, and such numbers are easily manufactured. What one editor can do in one journal by self-citation, a pair of editors can do with two journals without self-citation. Counting can never replace expert opinion.
      What can we, as concerned scientists, do? Of course, the first step is to look to ourselves: As scientists, we should place great emphasis on scientific integrity, in what we write and what we review. Ask yourself some questions before lending your name to a journal as an editor. Does that journal hew to high standards of peer review? Does it have clear policies and mechanisms for enforcing them? Is its output a useful addition to the sprawling scientific literature? We also need to educate others, not only our students, but also our colleagues and administrators and managers. The next time you are in a situation where a publication count, or a citation number, or an impact factor is brought in as a measure of quality, raise an objection. Let people know how easily these can be, and are being, manipulated. We need to look at the papers themselves, the nature of the citations, and the quality of the journals.”

    • ci si riesce invece prontamente invece. Un conto sono i tempi tecnici “da tribunale”, altro conto invece è il giudizio della comunità scientifica, che è stato abbastanza pronto

    • “altro conto invece è il giudizio della comunità scientifica, che è stato abbastanza pronto”
      ====================================
      17 anni non mi sembrano pochi. Come ho ricordato in un altro commento, El Naschie ha fondato Chaos Solitons and Fractals nel 1991 e la prima denuncia pubblica che conosco è l’articolo del 2008 su Nature:
      ____________________________________
      In 2008 the journal Nature published a news article by Quirin Schiermeier alleging that some of El Naschie’s papers did not appear to be properly peer-reviewed, and that he claimed institutional affiliations that could not be confirmed.[5] El Naschie disputed these allegations and sued Nature for libel. In July 2012 the case was dismissed, with the judge ruling that the article was “substantially true”, contained “honest comment” and was “the product of responsible journalism”.
      http://en.wikipedia.org/wiki/Mohamed_El_Naschie
      ____________________________________
      Riguardo alla facilità con cui si viene a capo di questi casi, faccio notare che in seguito alla causa intentata da El Naschie nei confronti di Nature, la rivista dovette mettere sotto embargo l’articolo. Ancora nel marzo 2012 (quando ne cercavo una copia per preparare un seminario), se si cercava l’articolo, questo era il risultato:
      ____________________________________


      ____________________________________
      Senza gli articoli di D.N. Arnold, nel periodo 2010-2012 sarebbe mancata una fonte autorevole per mettere a fuoco la vicenda. E l’intervento di Arnold non era qualcosa di scontato (tanto è vero che nei precedenti 17 anni non pare ci fossero stati altri interventi), ma la reazione di uno scienziato che sentiva molto forte la responsabilità di tutelare l’integrità delle pratiche scientifiche. Per intenderci, in un italia post-anvuriana e de-roarsizzata non riesco ad immaginare frotte di novelli Arnold che sottraggono tempo alla propria raccolta di “bollini citazionali” per imbarcarsi in battaglie etiche nei confronti delle combriccole citazionali.

    • Giuseppe, mi spiace, ma credo che tu continui a fare confusione. Un conto è un certo numero di casi isolati, un conto è quello che si vede in decine e decine di commissioni. Non tutti hanno la possibilità di fondarsi una rivista e fare maneggi di quel genere. Comunque spiegami una cosa. Io mi occupo di ricerca da molti anni. Perché non ho mai sentito nominare i personaggi di cui sopra se non per queste situazioni? Erano del tutto sconosciuti alla comunità e non erano tenuti in nessun conto. Certamente, sono stati generati dall’importanza data agli indici bibliometrici, ma, come dicevo, questi non devono essere l’unico criterio, devono essere usati per avere una verifica.

    • Giuseppe (Mingione), io non credo di essere in grande contrasto con le tue posizioni. Solamente, ritengo pericoloso ogni uso automatico. In particolare, selezionare i commissari in base al primo quartile bibliometrico (o addirittura in base al primo decile o quintile) è una scelta assai discutibile. L’uso di soglie potrebbe avere senso per tagliare una qualche coda bassa, legata anche a situazioni di inattività scientifica. Ma non appena si alzano, parte l’incentivazione al gaming. Non si costruisce l’etica con i numeri, ma in compenso la si può danneggiare parecchio proprio con i numeri. Sono scorciatoie pericolose, soprattutto in settori dove la caccia alla citazione può essere uno sport alla portata di tutti o quasi. Meglio recuperare l’abitudine al confronto aperto. Comunque vada, la lettera di Figà Talamanca ha aperto quel tipo di riflessione che molte comunità farebbero bene ad aprire. Non credo che esista una sentenza indiscutibile che dà ragione ad Alfa rispetto ad Omega, ma mettere sulla bilancia diverse visioni e sensibilità non puô che fare bene. Quando ero più giovane ho sempre cercato di decifrare i verdetti delle commissioni di concorso per capire la visione (o la sua mancanza) che sottendevano. Raramente, ho avuto occasione di andare più in profondità. Credo che questa discussione sia di estrema utilità, pur senza pretendere che gli uni convincano gli altri. Chi ci legge, tra 5, 10 o 20 anni dovrà giudicare dei colleghi (sempre che in futuro non venga deciso tutto da un algoritmo bibliometrico) ed avrà, spero, maggiore consapevolezza della complessità dei processi valutativi.

    • e aggiungo, questi personaggi sono stati segnalati appena le citazioni sono diventate importanti. Cioè appena avrebbero potuto costituire un pericolo. Prima di loro non importava niente a nessuno. La reazione è stata, credo, comunque pronta.

    • A fine anni ’90 l’impact factor era già entrato in profondità nella mentalità degli scienziati. All’epoca, se avessi dovuto valutare un CV di un candidato che avesse pubblicato su Chaos Solitons and Fractals, il buon Impact Factor della rivista mi avrebbe influenzato. Ovviamente, bisogna vedere cosa c’è scritto negli articoli, ma ci voleva un po’ di coraggio a sostenere che una bella lista di articoli su riviste ad alto IF valesse di meno di pochi (buoni) articoli su riviste con IF decisamente inferiore. Far vincere chi ha i numeri dalla sua parte è più facile da difendere.
      In giro per il mondo potrebbe esserci più di una persona che ha fatto carriera (anche) con gli articoli pubblicati sulle riviste di M. El Naschie e J.H. He. Non sono così sicuro che non importasse niente a nessuno. E poi, quanti casi meno appariscenti sono già tra noi? Di tanto in tanto affiora qualche pezzo dell’iceberg che naviga sotto il pelo dell’acqua:
      https://www.roars.it/online/bibliometrics-yes-please-we-are-serbian-and-italian/
      https://www.roars.it/online/dopo-i-serbi-arrivano-i-brasiliani-a-quando-gli-italiani/
      https://www.roars.it/online/vendesi-authorship/
      https://www.roars.it/online/impact-factor-nuovo-record-66-riviste-squalificate-per-doping/

  3. Per maggiore chiarezza nello stesso numero del Notiziario dell’ UMI
    appare anche un commento del Presidente UMI prof. Ciro Ciliberto”

    [OMISSIS]
    L’esempio che ci porta Figa-Talamanca e certo signi cativo (come lo sono
    sempre giudizi contrastanti sulle stesse cose o persone da parte di esperti), ma non sono sicuro che dimostri quel che lui suggerisce. Quel che mi pare che sia accaduto e che entrambe le commissioni siano entrate nel merito (quanto approfonditamente non ci e dato sapere) di una valutazione scientifica del candidato ed entrambe abbiano considerato sia il numero degli articoli, sia il loro valore scienti co, sia il loro impatto accertato da dati bibliometrici o presumibile per il futuro. Una delle due, la Alfa, ha ritenuto che i risultati fossero tali da compensare ampiamente il mancato superamento di un paio di mediane. Per la Omega cio’ non e’ accaduto. Non so se questo ci autorizza a dire che i commissari della Alfa guardassero solo al merito scienti co mentre quelli della Omega sistematicamente e solo al superamento delle mediane. Il fatto testimonia solo un diverso atteggiamento in un caso speci co, il che puo essere attribuibile anche solo al fatto che i contributi del candidato fossero piu apprezzabili e avessero maggiore impatto nel settore disciplinare della commissione Alfa e meno in quello della Omega.
    [OMISSIS}

  4. Purtroppo conosco benissimo il caso in questione, e non credo che sia un “buon esempio” per contrastare l’uso “indiscriminato” delle mediane. Implicitamente, i vari commenti parlano di un “giovane candidato” ma così non è, e quindi, a fronte dei 6 articoli presentati, trovo più che fondato il giudizio della commissione OMEGA “il numero limitato di articoli su rivista è un elemento fortemente negativo”.
    Inoltre, non è nella discrezionalità della commissione ALFA stabilire che in mancanza del superamento di tutte e tre le mediane del SC “la valutazione dell’importanza e dell’impatto della produzione scientifica del candidato è estremamente positiva”, questo automatismo era o avrebbe dovuto essere assicurato dal DM 76 del 07.06.2012 (Allegato E) a cui fa’ giustamente riferimento la commissione OMEGA “La valutazione dell’importanza e dell’impatto della produzione scientifica complessiva è quindi negativa”.
    Credo che quello in questione non sia un buon esempio di come “la Commissione Alfa si sia mossa in coerenza con la tradizione dei matematici che sono abituati a dare importanza alla qualità dei risultati, indipendentemente dal numero dei lavori nei quali sono riportati e dal numero delle citazioni che questi lavori ricevono”. Oserei dire che l’operato della commissione ALFA sugli olre 200 candidati del SC alla seconda fascia, se analizzato nel suo complesso, dimostri esattamente il contrario…potrei citare decine di esempi in cui la commissione ALFA ha affermato che “L’impatto dei lavori è quasi sempre moderato” a fronte di tutte le mediane superate, senza giustificare in alcun modo la “misura dell’impatto” utilizzata!

    • In realtà, il famigerato DM 76 è ambiguo persino su questo punto: infatti, parla di “impatto” della produzione scientifica in due distinti punti e con due distinte modalità. All’art. 4, comma 3, punto b, si parla – nella sezione “valutazione delle pubblicazioni scientifiche” – di “impatto delle pubblicazioni all’interno del settore concorsuale”. Al comma 4 dello stesso articolo 4, punto a, si parla invece – nella sezione “valutazione dei titoli” – di “impatto della produzione scientifica complessiva valutata mediante gli indicatori di cui all’articolo 6 e agli allegati A e B”, e dunque le mediane. Se ne deduce che il superamento delle mediane costituisce un “titolo” valutabile dalla commissione, la quale deve però anche valutare, con criteri propri, le pubblicazioni.
      Il famigerato DM 76 dixit.

    • @fausto_proietti
      Non è poi così difficile l’imterpretazione: da un lato la pertinenza dell’attività scientifica al SSC e dall’altra “l’automatismo del superamento delle mediane” per valutarne positivamente l’impatto e l’importanza. Credo che sia doveroso innanzitutto stabilire la pertinenza e poi guardare alle mediane. Laddove è dichiarata la pertinenza, le mediane dovrebbero dare l’altra misura…soprattutto come nel caso in questione, quando i lavori presentati COINCIDONO con la totalità dei lavori del candidato. Laddove il candidato avesse estratto i 12 lavori (per la matematica) da una totalità >12 si sarebbe potuto pensare di giudicare “eccellenti i 12 estratti” a fronte della totalità per la quale non c’è il superamento delle mediane, ma in questo caso non c’è altra possibilità…

    • @am
      No, nel comma che ho citato sopra non si parla di “pertinenza”, ma proprio di “impatto”. Inutile cercare una logia univoca, il DM 76 è stato congegnato apposta per giustificare tutto e il contrario di tutto.

    • Produzione scientifica COMPLESSIVA e gli N (=12 per la matematica) lavori presentati a concorso sono insiemi normalmente differenti (il primo in generale più numeroso del secondo)…ed è per questo che ci sono differenti riferimenti!

    • @ am
      appunto. e le mediane si applicano a valutare l’impatto del primo insieme, non del secondo.
      capisco che, da un punto di vista logico, si possa sostenere che il secondo è un sottoinsieme del primo, e che dunque andrebbe valutato con criteri analoghi a quelli che la legge fissa per il primo; ma la norma lascia, di fatto, amplissimi margini di discrezionalità alle commissioni in merito alla valutazione dell’impatto sul SSD dei prodotti presentati dal candidato.

    • Ma appunto cosa? In questo caso i due insiemi coincidono 6 <<12

      Quindi non possono esserci 2 criteri se quello della commissione è contro il DM 72 per la produzione complessiva

    • @ am
      Dev’esserci un equivoco: io non sto parlando del caso di un unico e specifico candidato, che non conosco e non mi interessa, ma in generale della differenza tra la valutazione dell’impatto delle pubblicazioni presentate e la valutazione di quello calcolato tramite le mediane sulla produzione complessiva secondo il DM 76. Mi pare chiaro che una commissione può, muovendosi entro i laschi limiti imposti dalla norma, ritenere che un candidato sottomediana abbia però prodotto alcuni contributi – da lui sottoposti alla valutazione della commissione – che hanno avuto un forte impatto sul SSD. Non sto dicendo che sia logico, o rispondente al buon senso, o etico, abilitare un candidato con sole 6 pubblicazioni: ma solo che non è vero, come da te affermato nel primitivo post al quale ho risposto, che “non è nella discrezionalità della commissione” stabilire con propri criteri quale sia l’impatto delle pubblicazioni (art. 4, comma 3/b DM 76/2012), a prescindere dal loro numero; diverso il discorso dell’impatto complessivo considerato come “titolo” (art. 4, comma 4/a DM 76/2012), come ho cercato di argomentare.

    • Ma se uno non accetta le bibliometrie, non accetta la discrezionalità’ di commissioni fatte da professori (nel caso della matematica erano spesso persone di valore), chi deve giudicare se ci sono caratteri di eccezionalità tali da abilitare un candidato che forse potremmo almeno definire “pigro”?
      Mi pare logico che scartando le prime due alternative, non rimane che affidarsi a un esterno, se non piace il grande personaggio illuminato lo chiamiamo Guru? Tra l’altro il sistema legale italiano dei concorsi si combina malissimo con il sistema anglosassone (discrezionale pure quello) delle lettere di raccomandazione.

  5. Concordo pienamente con Figà-Talamanca. Numero di pubblicazioni e citazioni possono avere un valore solo contestualmente. La prima valutazione che va fatta riguarda i “risultati che ha ottenuto il candidato”. Se un matematico ha dimostrato un teorema di considerevole rilevanza, allora stop, basta questo, chi se ne frega delle citazioni e di quanta carta il candidato ha prodotto. Se il candidato ha una produzione su campi molto citati e di qualità nella norma, allora il moderato utilizzo di indicatori bibliometrici può avere un senso.

    Il tutto funziona bene se i giudizi sono espressi da colleghi competenti e di cristallina onestà intellettuale. In mancanza di questo non è possibile trovar rimedio, tanto meno utilizzare in automatico gli indici bibliometrici, cosa che ha indotto l’ASN e che corrisponde ad una valutazione un tanto al chilo. In verità, come osservato da Figà-Talamanca, l’ASN offrì meritoriamente la possibilità di derogare agli indici bibliometrici. Ma questo è risultato difficile specialmente per le commissioni con visione non unanime, sicuramente qualche commissario ha voluto imporre una lettura rigida (ed errata) del regolamento. In mancanza
    di un commissario di spiccato spessore scientifico, tale atteggiamento “burocratico” può aver avuto la meglio.

    Stupisce che proprio alcune commissioni di matematica, che by definition non può che rifiutare la valutazione bibliometrica, abbiano avuto questo problema. Altrove hanno escogitato trucchetti per uccidere i vari indici, in particolare il fastidiosamente demenziale h_c, molto apprezzati in ambienti più illuminati.

    • “Il tutto funziona bene se i giudizi sono espressi da colleghi competenti e di cristallina onestà intellettuale.” e qui che casca l’asino!!!

    • “Se un matematico ha dimostrato un teorema di considerevole rilevanza, allora stop, basta questo” — Purtroppo Marco capita spesso che quello che sia un giudizio condiviso all’interno della comunità scientifica venga capovolto in sede concorsuale. D’altra parte, chi è che stabilisce se un matematico ha dimostrato un teorema importante? A livello internazionale la comunità, a livello concorsuale la commissione. Ed è proprio allora che un uso corretto delle citazioni può entrare in gioco, non per dimostrare che una cosa è buona, ma per mettere in dubbio la supposta eccellenza di qualche candidato che eccellente non è.

    • Vorrei aggiungere, a questo proposito, che, con l’attuale sistema, molti Commissari si sono trovati a dover giudicare l'”impatto” ed il “riconoscimento” all’interno della comunità di scientifica di lavori appartenenti ad un SSD diverso dal loro. È anche e soprattutto in questo senso che i tanto vituperati valori bibliometrici potevano fornire, se non altro, un’indicazione di massima.

      Affossarli completamente (come è accaduto, anche in alcuni settori matematici) ha avuto come effetto più evidente quello di far comparire, nei verbali, giudizi privi di un riscontro verificabile, oltre a disparità di opinioni che, a volte, lasciano davvero senza parole.

      Per concludere: tutti sanno che chi ha indici alti non è necessariamente un imbroglione, appartenente ad un cartello bibliometrico oppure un prolifico produttore di autocitazioni. Quasi sempre è, semplicemente, un onesto professionista che ha scritto molto ed è stato letto.

    • Ma il problema è nell’uso automatico che non solo premia i pochi imbroglioni ma li moltiplica nel prossimo futuro. Anche senza uso normativo e automatico, gli indici esercitano già una pressione psicologica su chi giudica. Chi aspira a far carriera lo sa e anche prima di ANVUR i candidati tenevano conto degli indici nella costruzione dei propri CV. Aver dato valore normativo ed anche automatico (ricordate che la deroga dall’uso automatico delle mediane doveva essere decisa e motivata a priori dalle commissioni, ma che il default è l’uso automatico) esaspera la corsa all’indicatore. Anche il solo pensiero che la prossima commissione possa usare la tagliola bibliometrica senza deroghe e la consapevolezza che tutti gli altri candidati si stanno mettendo al riparo facendo salire la mediana della popolazione verso un valore che non si sa di quanto, ma di sicuro sarà piùalto del precedente, scatena una corsa preoccupante. Si tratta di questioni che impongono di ragionare a livello di sistema e su orizzonti temporali medio-lunghi. La posta in gioco è il senso stesso di cosa voglia dire fare ricerca e di chi sia un bravo ricercatore. Un’impennata collettiva degli indicatori non esclude (anzi) un calo generale della qualità della produzione scientifica. Vengono anche spostate ingenti risorse, quanto meno intellettuali e di tempo, verso un obiettivo che può essere debolmente correlato con quello principale (l’avanzamento delle conoscenze).

    • Credo che nessuno, almeno in questa sede, sia così irragionevole da invocare l’uso automatico degli indici bibliometrici. Ma anche la loro demonizzazione mi pare un atteggiamento acritico ed esasperato, e dunque indegno di una comunità scientifica.

      Ogni strumento può essere utile o dannoso.

      Tutto sta nel buon senso di chi lo adopera. E nel livello di trasparenza che decide di adottare nel giustificare pubblicamente le proprie scelte. Soprattutto – mi preme sottolinearlo – quelle che riguardano il futuro di altre persone.

    • Certamente. Il punto è che l’ANVUR ci ha spinto verso un uso automatico e normativo che va controcorrente rispetto allo stato dell’arte del dibattito internazionale. È bene ricordare che senza un dichiarazione *preventiva e motivata* le commissioni ASN dovevano attenersi rigidamente alle mediane. Il segnale alle giovani generazioni è stato fortissimo e in una direzione quanto meno discutibile. L’effetto domino della bibliometria fai-da-te anvuriana è pure stato fortissimo. Pensiamo all’accreditamento dei dottorati e alla VQR i cui numeri, metodologicamente bacati e incomparabili, stanno entrando nei calcoli delle ripartizioni intra-ateneo. Sono tutti ambiti in cui scattano automatismi. Stare sopra mediana o avere indici bibliometrici più alti alza le tutte le pagelle. Inevitabile guardare con sospetto il collega che, fosse solo perché si occupa di temi meno popolari, ha una bibliometria meno splendente oppure un po’ opaca. Non ci vogliono capacità divinatorie per capire che il target bibliometrico diventerà la stella polare degli accademici italiani nella lotta per la carriera individuale come pure per le competizioni tra gruppi e dipartimenti.

    • Certamente. E in nome di questi nobilissimi principi – ovvero per salvare la credibilità dell’università italiana – si può tranquillamente attribuire, in sede concorsuale, ed in barba a quanto stabilito dalla legge e dal bando, un “impatto scarso” alla produzione scientifica di chi superava tutte le mediane, con conseguente negazione dell’abilitazione.

      Francamente, mi sembra un modo piuttosto scorretto di difendere le proprie idee. Sempre che davvero di ciò si tratti.

    • Il punto è che sono idee diffuse in tutto il mondo scientificamente progredito. Lo dico con tutta la solidarietà possibile nei confronti di chi può essere stato vittima di valutazioni ingiuste. La criminalità ci sarà sempre, ma non è proprio il caso di fare leva su di essa per introdurre uno stato di polizia (i cui effetti benefici rimangono tutti da dimostrare).

    • Chi vuole lottare per la libertà – quella che ci preserva dal diventare uno stato di polizia – dovrebbe farlo a proprio rischio e pericolo, e non sulla pelle degli altri. Grazie per l’interessante scambio di idee.

    • Da due anni e mezzo, i redattori di Roars ci mettono la faccia e tante, tantissime ore di fatica (e di sonno).

    • Infatti a voi sono rivolti solo i miei ringraziamenti. Il mio precedente pensiero ha ben altri destinatari.

  6. Concordo che in certi casi, direi ristretti, possa essere utile considerare il numero e la qualità delle citazioni (e.g. se un dato risultato è effettivamente utilizzato). Ma tra questo e mettere la bibliometria come criterio dirimente c’è un abisso. Non solo, le mediane sono stabilite considerando un dato SSD, all’interno del quale ci sono ricerche popolari e altre, non di rado più rilevanti, di nicchia. Spesso l’argomento è di nicchia semplicemente perché pochi sono in grado di lavorarci. Il risultato è che un ricercatore “molto forte” avrà una platea molto ristretta e sarà sorpassato dai “popolari”… Non solo, tipicamente chi fa ricerca con passione su argomenti molto impegnativi, se ne frega degli indici e degli aspetti di marketing.

    La differenza tra il numero di citazioni medio su un argomento rispetto ad un altro dello stesso SSD può essere molto marcata. Ci sono linee di ricerca con un diluvio di citazioni che dopo poco tempo si rivelano del tutto irrilevanti, un ricercatore serio non ci lavorerà mai. Con lo stile “un tanto al chilo” dell’ANVUR si incentiva la moltiplicazione di questi fenomeni. E magari trovi l’ottimo candidato che per una manciata di citazioni messe al posto giusto non riesce a soddisfare 2 indici su 3, è il demenziale h_c che ha prodotto molti casi di questo tipo. Per non parlare delle autocitazioni, del numero di autori per paper, delle citazioni concordate tra gruppi d’assalto ecc. Il tutto non ha proprio senso.

    Einstein suggeriva ai giovani con la passione per la ricerca di rifugiarsi in un faro sperduto in mezzo al mare, oggi l’ANVUR obbliga i ricercatori a vivere in aereo e a scrivere papers con la mano sinistra mentre sono in teleconferenza.

  7. Ringrazio Marco2013 per aver ribadito, per la n+1-esima volta, parte di cose gia` dette n volte. Forse, per induzione, dimostreremo qualcosa. Ma si continua a parlare di “parametri freddi, oggettivi”, mentre si tratta di numeretti insignificanti che introducono distorsioni significative e dannose.
    …..
    Si continua a ripetere che la serie storica di concorsi che ci ha portati fin qui sarebbe stata fatta “piu` nel male che nel bene”.
    Ammettiamo pure che sia vero (ma e` tutto da dimostrare). Questo cosa dimostra? Mostra solo qualcosa di cui siamo tutti consapevoli: il male esiste. Questo non ci obbliga in introdurre un rimedio molto peggiore del male.

  8. Ma perché tanto mistero? Se il Prof. Figà Talamanca, o chiunque altro, vuole criticare la decisione di una commissione su un caso specifico ben venga. I curricula dei candidati e tutti gli atti sono pubblici. Si ponga il caso all’attenzione della comunità e ne nasca un salutare discussione. Sempre che non ci sia un ricorso in atto, beninteso. I candidati sanno bene che il loro curriculum sarà pubblicato e si sono esposti quindi volontariamente al vaglio dell’intera comunità. È ipocrita sostenere che i protagonisti non siano riconoscibili, un artificio retorico che mette tuttavia la commissione nell’impossibilità di rispondere apertamente.

    Viceversa, se la critica riguarda il comportamento complessivo di una commissione riguardo all’uso fatto degli indicatori bibliometrici, venga detto quale commissione e posto all’attenzione il numero di candidati superanti o meno le soglie bibliometriche che sono stati effettivamente abilitati e se ne faccia un’analisi, comparando i dati con quelli delle altre commissioni.

    Altrimenti, qualche esprit mal tourné potrebbe figurarsi che il vero obiettivo dell’intervento sia di screditare l’operato e la professionalità di una intera commissione. L’uso delle mediane per i commissari ha infatti avuto l’effetto di cambiare radicalmente il volto delle commissioni che hanno operato in Italia negli ultimi vent’anni, sottraendole, talvolta, alle storiche alleanze e ai giochi di potere.

    • Mi sembra chiaro che il senso dell’articolo *non* sia criticare la decisione di una commissione né sul caso specifico né sul comportamento complessivo, ma usare un caso esemplificativo per aprire un dibattito sulle modalità di valutazione condivisibili all’interno di una comunità che aveva una sua cultura valutativa (che come tutte le cose è soggetta a dibattito e mutazione). Spostare l’attenzione sul nome o sui nomi contribuirebbe a confondere il dibattito, mescolando aspetti contingenti e personali che non aiuterebbero certo ad argomentare in modo limpido. E d’altronde, se Figà Talamanca avesse discettato in astratto, sarebbe risultata assai meno evidente la bruciante attualità della questione di principio.

    • Ma del così eclatante caso non possiamo, per carità , dire nulla…. Sinceramente, è un atteggiamento assai poco scientifico.

      E se a ben vedere non fosse una questione di mediane? Semplicemente di divergenza di valutazione? un risultato che è più apprezzato dagli uni di un settore e meno dagli altri? E se fosse invece un esempio lampante in cui il giudizio umano diventa prevalente sui meri numeri?

    • Nihil recte docetur aut discitur sine exemplo. Parafrasando questo motto, caro a Castelnuovo, vorrei dire: di nulla si può discutere bene senza fare esempi. Un ricercatore, che è chiaramente molto bravo e molto colto, tanto bravo che è riuscito a fare ciò che è dato di fare solo a pochi (pubblicare su Annals of Mathematics) non ha ricevuto l’abilitazione ad associato: attenzione: non il premio Nobel, la medaglia Fields, il premio Feltrinelli, ma la possibilità di accedere a concorsi per associato. Non il posto da associato, ma la possibilità di accedere a concorsi per associato. Ecco, prima di imbarcarsi in sottili distinguo, che, a mio avviso, fanno perdere il senso della realtà, suggerirei di tenere a mente questo esempio.

  9. Nonostante non volessi identificare la persona di cui si discuteva, una serie di indicazioni molto chiare nei vari commenti mi ha fatto probabilmente identificare il caso particolare. Come opinione personale penso che la persona sia stata abilitata dalla commissione dove culturalmente era meglio valutabile, non solo il risultato importante ma anche il resto della scarsa pubblicistica prodotta.
    Onestamente e’ un caso talmente particolare su cui non credo abbia alcun senso imbastire ragionamenti di carattere generale.
    Temo che Susanna Terracini abbia perfettamente ragione, infatti
    se il caso viene sollevato poiche’ si desidera criticare la commissione OMEGA, magari perché si hanno riserve sull’operato complessivo, allora la critica va fatta alla luce del sole con nomi e cognomi, dando ai membri della commissione la possibilità’ di difendere il loro operato.
    Trovo utili le discussioni di carattere generale ma non ho
    nostalgie dei tempi andati, in cui ho l’impressione che le cose non fossero meglio di oggi. Chi come Figa’ Talamanca e in misura più modesta il sottoscritto, ha avuto dei ruoli di governo delle scelte della propria comunità, dovrebbe dare fiducia e credito alle persone piu’ giovani che oggi si sono assunte delle responsabiita’. Non credo potranno fare peggio di noi.

  10. Una piccola osservazione a margine: trovo ci siano spesso commentatori anonimi e mi chiedo perché non vogliano palesarsi. Anche questo è segno di poca serenità nel dibattito. PS non sono un barone del genere “vendicativo” e chi vuole affermare il contrario di quello che dico può farlo senza temere alcuna ritorsione 🙂

  11. Sono completamente d’accordo con entrambi i commenti della prof Terracini.

    Per me questo non è un caso esemplificativo per “riportare” le mediane ad un aspetto marginale rispetto al giudizio di illuminati commissari. Potrebbe esserlo solo a fronte di un comportamento coerente della commissione alfa rispetto al superamento delle mediane per tutti i candidati esaminati: ma cosi non è stato.

    Credo che l’apertura di Profumo rispetto al non superamento delle mediane abbia dotato alcuni commissari di un extra potere discrezionale che non si era mai visto neanche nei concorsi locali.

    In ultima analisi, si osservi anche solo formalmente i due giudizi: quante informazioni si desumono dal primo? E quante invece dal secondo?

  12. La commissione alfa menziona che il candidato ha “brillantemente risolto un problema aperto [omissis] completando la dimostrazione del celebre teorema [omissis]”. La omega parla di risultati “talora ottimi”. Che, eliminando l’obsoleta pennellata, vuol dire: ci sono ottimi risultati. Non pare quindi esserci gran distanza nella sostanza del giudizio. Riterrei probabile che il “talora” peggiorativo sia dovuto alla decisione di non abilitarlo su cui ha pesato in modo decisivo, mi sembra ovvio, il non superamento delle mediane.

    Un altro candidato segato dalla bibliometria, fatto che, specialmente in matematica, non ha alcun senso. Questo è tanto più vero per i filoni di ricerca astratti, AG, NT, CT, RT, QA … Sarebbe quasi il caso di chiedere alla Giannini di esentarli dalla bibliometria.

  13. Il commento di Fausto di Biase è illuminante. Chi conosce Annals of Mathematics, ed ogni matematico la conosce assai bene, è molto ben informato sull’altissima qualità, il peer review, l’Editorial Board etc. Sono pochissimi i matematici italiani che riescono a pubblicarci. La sensazione è che si tratti di un candidato anomalo che ovviamente non può che sottrarsi ai demenziali criteri dell’ASN, all’estero sarebbe già ordinario. Notevole il fatto che la commissione omega non abbia menzionato il livello della pubblicazione, mi pare dica tutto. Anche l’intervallo di 4 anni senza pubblicazione è altamente motivato, anzi un ottimo segnale, tipico di chi mira così in alto. Questo mostra che la continuità può essere un criterio ma solo in funzione del contesto della ricerca (Higgs docet!).

    Tenderei ad ipotizzare che ci sia discordanze di vedute tra i Chaos and Fractals oriented e quelli più inclini ad Annals, Inventiones, Duke etc. La commissione omega potrebbe scrivere all’Editorial Board di Annals spiegando che con le loro elucubrazioni hanno dedotto, unanimemente, che il lavoro del candidato non è eccezionale (come invece richiesto come prerequisito per la submission ad Annals) ma, al massimo, appartiene all’insieme di quelli “talora ottimi”.

  14. @FaustoDeBiase @marco2013 mi pare che non stiamo più parlando della persona da cui si era partita la discussione, ma di una altro candidato che penso voi conosciate molto bene.
    Capisco la rabbia di vedere persone con interessi scientifici vicini, che hanno problemi di riconoscimento dalla comunità’ nazionale.
    Ha ragione Susanna Terracini, il commento per essere accettabile dovrebbe scrivere OMEGA = SETTORE CONCORSUALE, candidato = NOME e COGNOME.
    In tutto cio’ le mediane non ci entrano nulla, la commissione OMEGA anche in questo secondo caso, ha ritenuto che una pubblicazione di valore, CON UN BUCO SENZA PUBBLICARE NIENTE tra il 2003 e il 2011, non fosse sufficiente per l’abilitazione.
    Poi se il lavoro su Annals ha più firme, con gente mediamente più’ attiva del candidato, perché’ un commissario dovrebbe credere che il contributo di questa persona e’ paritario?
    Se la persona ha ricominciato a lavorare dopo 7 anni di ignavia, ricostruira’ la sua reputazione nella comunità e fra un anno prenderà l’abilitazione per la seconda e poi magari anche per la prima fascia,
    IN TUTTO QUESTO LE BIBLIOMETRIE NON CI ENTRANO NULLA.
    Comincio ad avere la sgradevole impressione che si sollevino problemi generali in modo STRUMENTALE, per difendere questioni settoriali e di piccolo gruppo.

  15. Quando una commissione dichiara temi di ricerca che sono il nucleo della declaratoria del SSD come marginali o di scarso interesse, conia spassose espressioni come “non eccessivo impatto” o “partecipare alla vita del settore”…che dire?

  16. Se permettete, trovo assai seccante portare un singolo esempio per confutare un’intera metodologia. Mi piacerebbe sapere dove stavano tutti quelli che parlano oggi, quando alcuni concorsi venivano vinti da persone che invece di pubblicare su importanti riviste internazionali, avevano molti lavori su sconosciute riviste locali e il cui unico pregio era magari quello di replicare qualche seminale (…) contributo di qualche capocordata locale. Per quanto mi riguarda i singoli casi non sono molto indicativi e le citazioni, usate discernimento e per effettuare verifiche su casi dubbi e come raffronto, possono essere molto utili. Infine, gradirei che questa discussione non si trasformasse in un atto di accusa verso certe commissioni, che mi pare abbiano lavorato con molto serietà. Ricordiamo che i nostri colleghi, tutti matematici di primissimo ordine e che hanno una notevolissima visibilità internazionale, hanno devoluto molte ore a questo lavoro e tutto pro bono.

  17. @Giuseppe Mingione: il caso è emblematico di quanto sia assurdo utilizzare le mediane come criterio dirimente. In proposito i matematici avevano ufficialmente espresso forte contrarietà. Sorprendentemente qualche commissione ha addirittura scelto un’interpretazione restrittiva, richiedendo il superamento di 2 mediane su 3 come prerequisito sine qua non per ottenere l’abilitazione. Ritengo che tale scelta sia contro i principi alla base del concetto di ricerca in matematica e non capisco come i colleghi lo possano anche solo ipotizzare. Non è questione di poco conto, e fa benissimo Figà Talamanca a sottolinearlo.

    L’unica consolazione è che sia a matematica che a fisica, il numero di casi eclatanti, comunque troppi, è risultato assai minore che altrove.

    • @Giuseppe Mingione: “Se permettete, trovo assai seccante portare un singolo esempio per confutare un’intera metodologia.”

      Il singolo esempio è stato utilizzato appunto come esempio e non è stato utilizzato per confutare un’intera metodologia. L’intera metodologia è stata confutata portando corpose e inequivocabili motivazioni, di cui il presente caso è, appunto, un esempio.

      Quindi, parafrasandoti “non permetterei”. Il fatto che tu lo trova “assai seccante” non aggiunge argomento utile.

      Altro fatto riguarda il “dove eravamo”. Personalmente c’ero e molto, e ci sono sempre stato. Come infatti ricorda ancora oggi la commissione il cui risultato fu ribaltato d’ufficio dal MIUR o ben sanno tutte le commissioni dove il risultato non ha seguito affatto i vari desiderata. Il problema è l’onestà intellettuale ed il coraggio di averla fino in fondo, senza minimamente badare ai vantaggi personali.

      Suggerirei un dibattito più sostanziale, evitando, frasi fatte, “sinceramente” e parenti vari.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.