Dobbiamo essere grati ai Colleghi del Gruppo Esperti della Valutazione (GEV) per la Matematica, che con impegno, professionalità e, soprattutto imparzialità, hanno svolto il compito di valutare la ricerca matematica nell’ambito della VQR (Valutazione della Qualità della Ricerca 2004-2010). Sono anche da apprezzare le prudenti osservazioni e le caute critiche alle procedure di valutazione della VQR, contenute nel documento approvato dalla Commissione Scientifica dell’UMI, l’11 dicembre 2013, e redatto con il contributo dei Colleghi Marco Abate, Nicola Bellomo, Paolo Freguglia, Nicola Fusco e Giuseppe Mulone.

Ciò non toglie, a mio parere, che alcuni risultati di questa valutazione appaiano del tutto irragionevoli sì da far dubitare della validità dell’intero processo di valutazione.

I risultati più appariscenti e più facilmente comprensibili al pubblico sono quelli delle graduatorie tra le diverse sedi universitarie.

Le graduatorie per il “macrosettore” della matematica sono tre: quella delle università “piccole” che comprende 38 sedi universitarie, quella delle università “medie” che comprende 11 sedi universitarie e quella delle università “grandi” che comprende 4 sedi universitarie. In tutto sono state considerate le 53 sedi universitarie per le quali il numero “atteso” dei prodotti da valutare risultava non inferiore a dieci.

La definizione di “piccola”, “grande” e “media” è pure basata sul numero atteso dei prodotti da valutare. Si tratta di una definizione più che ragionevole, anche se una sua conseguenza è che oltre il 70% delle sedi è classificata tra le piccole. Le piccole sedi, tuttavia, nel loro complesso impiegano approssimativamente un terzo dei docenti di ruolo di matematica, un altro terzo (approssimativamente) è impiegato nelle medie sedi ed un terzo nelle quattro grandi sedi.

La graduatoria delle piccole sedi (Tabella 3.2 del Rapporto Finale per l’Area 01), che dovrebbe riflettere la “qualità” della ricerca matematica è certamente sorprendente:

1)Trieste SISSA 2)Cassino  3)Molise 4)Pavia 5)Sannio 6)Brescia 7)Bergamo 8)Pisa Normale 9)Insubria 10)Roma Tre 11)Udine 12)Verona 13)Trento 14)Milano Bicocca 15)Modena e Reggio 16)Salento 17)Trieste 18)Sassari 19)L’Aquila 20)Marche 21)Bari Politecnico 22)Parma 23)Chieti e Pescara 24)Basilicata 25)Perugia 26)Salerno 27)Napoli II 28)Piemonte Orientale 29)Ferrara 30)Reggio Calabria 31)Calabria (Arcavacata) 32)Cagliari 33)Siena 34)Napoli Partenope 35)Messina 36)Camerino 37)Venezia Ca’Foscari 38)Milano Cattolica.

Osserviamo che le università di Cassino, Molise e Sannio (Benevento) precedono la Scuola Normale, e precedono anche Roma Tre, Trento e Milano Bicocca. Più giù nella graduatoria  Sassari precede L’Aquila, e precede anche più della metà delle sedi piccole.  E’ possibile che la qualità della ricerca delle sedi di Cassino e Molise superi quella di tutte le altre piccole sedi ad eccezione della sede di Trieste SISSA? E’ possibile che la Scuola Normale sia superata in qualità della ricerca matematica oltre che da Cassino e Molise, anche da Sannio, Brescia e Bergamo?

Una risposta a questi interrogativi potrebbe essere che chi si sorprende di questa graduatoria si riferisce ad una definizione “soggettiva” della qualità della ricerca matematica, mentre i risultati della VQR provengono da rilevazioni e valutazioni “oggettive” non dipendenti dai gusti, dai pregiudizi e dagli interessi accademici di chi esprime un giudizio. Questa è la risposta che potrebbe dare ragionevolmente un osservatore esterno, sospettoso degli arbitrii  che, secondo la grande stampa, inquinano le valutazioni del mondo accademico.

E’ difficile tuttavia che un matematico italiano aderisca a questa posizione. Anche senza avere a disposizione la documentazione presentata per la VQR, un matematico può identificare, attraverso la banca dati del Ministero, tutti i docenti e ricercatori di matematica di una piccola sede e farsi un’idea dell’attività di ricerca che si svolge in una sede consultando la banca dati di MathSciNet. E’ improbabile che una simile facile ricognizione, applicata ad esempio alla Scuola Normale e ad una delle piccole sedi che la superano, confermi, nell’opinione di un matematico, la classifica della VQR. Ricordiamo però che sono gli osservatori esterni che utilizzeranno prevalentemente i risultati della VQR, basandosi probabilmente sui risultati più semplici da considerare che sono, appunto, le graduatorie.

Uno sguardo solo un po’ più approfondito alla Tabella 3.2 del citato rapporto finale ci fa sospettare che le anomalie nella graduatoria delle piccole sedi siano dovute al fatto che la posizione in graduatoria è fortemente influenzata dal valore negativo attribuito, secondo le regole fissate dall’ANVUR, ai “prodotti  mancanti”.  Chi giudica la qualità della ricerca matematica che si svolge in una sede universitaria difficilmente tiene conto dei matematici “inattivi”. Al contrario le regole di valutazione dell’ANVUR impongono di contare negativamente i “prodotti mancanti” in relazione ad un “numero atteso” di prodotti che dovrebbero essere presentati dalla sede.

In effetti il Rapporto Finale per l’Area 01,  comprende anche graduatorie che omettono la considerazione dei prodotti mancanti. Per le piccole sedi la graduatoria della matematica è la seguente (Tabella 5.2):

1)Trieste SISSA 2)Pisa Normale 3)Cassino 4)Pavia 5)Molise 6)Insubria 7)Sannio 8)Brescia 9)Roma Tre 10)Bergamo 11)Milano Bicocca 12)Trento 13)Udine 14)Bari Politecnico 15)Modena e Reggio 16)Trieste 17)Verona 18)Parma, 19)Marche 20)Salento 21)L’Aquila 22)Chieti e Pescara 23)Piemonte Orientale 24)Ferrara 25)Basilicata 26)Sassari 27)Napoli II 28)Milano Cattolica 29)Calabria 30)Perugia 31)Cagliari 32)Salerno 33)Siena 34)Camerino 35)Napoli Partenope 36)Reggio Calabria 37)Messina 38)Venezia Ca’Foscari.

L’onore della Scuola Normale, che si colloca ora al secondo posto, è salvo. Restano però i dubbi relativi alla posizione preminente di sedi come Cassino, Molise e Sannio. In ogni caso la graduatoria ufficiale è quella nella quale i “prodotti mancanti” contano negativamente.

Potremmo andare avanti nel ritoccare i criteri della valutazione (ad esempio escludendo dalla graduatoria le sedi con meno di 30 prodotti attesi), fino ad arrivare ad una graduatoria che non presenta evidenti anomalie. L’unica graduatoria ufficiale resterebbe però quella della Tabella 3.2 e comunque i successivi aggiustamenti risulterebbero del tutto arbitrari per l’ipotetico “osservatore esterno” e non conformi alle regole adottate per le altre discipline.

Dovremmo invece porci alcune domande più generali: È utile compilare graduatorie delle sedi? È utile contare negativamente la mancata attività di alcuni docenti? Ed infine, è  utile svolgere un processo di valutazione come quello della VQR?

Prima di tentare di rispondere a queste domande vorrei replicare ad una possibile obiezione e cioè che le anomalie della valutazione sono evidenti solo per la graduatoria delle piccole sedi e scompaiono invece nelle graduatorie delle sedi medie e grandi. Ecco quindi qui di seguito la graduatoria per le sedi medie (Tabella 3.6):

1)Torino Politecnico 2)Roma Tor Vergata 3)Pisa 4)Milano 5)Milano Politecnico 6)Firenze 7)Palermo 8)Torino 9)Bari 10)Genova 11)Catania

E quella per le sedi grandi (Tabella 3.10)

1)Roma Sapienza 2)Padova 3)Bologna 4)Napoli Federico II.

In queste graduatorie le anomalie sono meno apparenti e, nell’opinione di qualcuno, possono essere  addirittura inesistenti. Né sarebbe facile una verifica come quella, basata sulle banche dati ministeriali e del MathSciNet, che ho suggerito per le sedi piccole. Tuttavia le  conseguenze dei criteri di valutazione adottati per le sedi piccole entreranno in gioco allo stesso modo per le sedi grandi e medie, anche se gli effetti possono non essere così evidenti per un osservatore esterno.

Torniamo quindi alle tre domande elencate sopra. Perché le domande abbiano senso dovrò definite che cosa intendo per “utile”. A mio parere dobbiamo considerare utile ciò che porta ad un miglioramento della ricerca e dell’insegnamento universitario di matematica in Italia. Sembra una definizione ovvia, ma in questo mi discosto dall’opinione condivisa apparentemente da molti che una valutazione nazionale della ricerca sia utile in sé, perché premia i virtuosi e castiga i viziosi.

Cominciamo dunque dalla prima domanda: è utile compilare graduatorie? Osserviamo intanto che non è affatto semplice paragonare tra loro università di dimensioni diverse (cioè con un numero diverso di docenti e ricercatori di matematica). Per tener conto delle diverse dimensioni si dovrà procedere ad una normalizzazione. Ma la normalizzazione basata sui voti medi, può produrre risultati paradossali se le dimensioni sono troppo diverse, come cercherò di spiegare con un esempio più semplice ed intuitivo.

Supponiamo di dover misurare le altezze in una popolazione di cento individui. Supponiamo che la distribuzione delle altezze sia approssimativamente normale. Distribuiamo poi a caso la popolazione in un gruppone di cinquanta individui e in dieci gruppetti di cinque individui. Facciamo la media delle altezze di ciascun gruppo e confrontiamole. C’è da aspettarsi che la media di almeno uno dei gruppi di cinque superi decisamente la media del gruppo di cinquanta. In altre parole sarà molto più difficile per il gruppone eccellere nelle altezze.

Questa è una buona ragione per restringere i confronti a università approssimativamente delle stesse dimensioni. Per questo il rapporto finale per la matematica ha considerato tre diverse graduatorie. Per questo sparirebbero dalla graduatoria delle piccole sedi le più evidenti anomalie se si escludessero dalla graduatoria le sedi più piccole, ad esempio quelle con numero di prodotti attesi inferiore a trenta. Ma il numero delle graduatorie ed anche i loro confini sono fissati in maniera discrezionale (anche se ragionevole). Così ad esempio, nelle nostre graduatorie, se l’università di Pavia, che è tra le più grandi delle sedi piccole (solo Calabria è più grande), fosse spostata nelle le sedi medie passerebbe dalla quarta posizione alla prima, cioè da una posizione inferiore a quella del Molise ad una posizione superiore a quella del Politecnico di Torino (questo  confronto è basato sul voto medio). Peraltro la distinzione tra università piccole e università medie è stata decisa sulla base di criteri ragionevoli. Ma non sembrerebbe, tuttavia, più naturale che l’università di Pavia si confronti con il Politecnico di Torino, piuttosto che con l’università del Molise?

Questo ma anche molti possibili altri esempi ci confermano quanto siano povere di informazioni le graduatorie, le quali invece pretendono di riassumere efficacemente i dati rilevati dalla valutazione. In altre parole, le graduatorie finiscono per occultare i dati della VQR. Se nelle tabelle del rapporto finale le sedi fossero elencate in ordine alfabetico e fosse omessa la colonna della graduatoria, come avviene per esempio con i risultati dei famosi “research assessment exercises” (www.rae.ac.uk), l’osservatore esterno sarebbe costretto a consultare i dati delle altre colonne, ricavandone eventualmente confronti e graduatorie secondo il proprio buonsenso (ad esempio confrontando Pavia con il Politecnico di Torino e scartando invece come irrilevante il confronto tra Pavia e l’Università del Molise). Ovviamente anche la formula per la distribuzione della porzione “premiale” del Fondo di Finanziamento Ordinario può fare a meno delle graduatorie.

La mia conclusione e la risposta alla prima domanda che ci siamo posti è che le graduatorie non hanno alcuna utilità ed anzi sono potenzialmente dannose influendo negativamente sulla comprensione dei fenomeni e finendo per occultare i dati della stessa rilevazione VQR[1].

Passiamo quindi alla seconda domanda: è utile attribuire un voto negativo ai “prodotti mancanti”?  Già nel documento approvato dalla Commissione Scientifica dell’UMI si osserva che spesso i matematici inattivi nella ricerca scientifica sono tutt’altro che inattivi in altri ambiti e possono fornire servizi essenziali all’università operando nella didattica, nell’amministrazione e nelle attività di “terza missione”. Ci sono anche rari casi di un’inattività solo apparente: non si pubblica perché si sta lavorando su un problema molto difficile. Così è successo al matematico cino-americano inattivo per più di dieci anni mentre cercava di dimostrare un risultato che ci avvicina alla soluzione del problema dei numeri primi gemelli (http://annals.math.princeton.edu/articles/7954).

Il suggerimento del documento dell’UMI di esaminare nello specifico le cause di inattività, accertando quali siano i maggiori servizi aggiuntivi resi dagli “inattivi” a vantaggio dei dipartimenti e degli atenei, non è facile da seguire. Per il momento resta la forte penalizzazione relativa ai “prodotti mancanti”. Quali possono essere le conseguenze di questa penalizzazione? Si presume che i matematici cercheranno di azzerare i possibili punteggi negativi, in vista di una nuova edizione della VQR. Ci saranno in effetti pochi casi di matematici ancora in grado di produrre risultati di alto livello che non pubblicano solo perché impegnati in altre attività importanti per lo sviluppo della matematica, come la didattica di alto livello, la guida della ricerca dei giovani, gli impegni organizzativi. Queste persone possono essere sollecitate a pubblicare di più trascurando le attività che finora hanno svolto. Non è chiaro che il risultato netto sia utile per lo sviluppo della matematica. Ma il caso più frequente sarà quello di “inattivi” che non sono più in grado di svolgere ricerca di alto livello. Ad essi sarà comunque chiesto di azzerare i punteggi negativi.  Fortunatamente,  per azzerare i punteggi negativi è sufficiente pubblicare un numero minimo di articoli su riviste definite di quarta categoria nell’ambito delle regole della VQR. E’ difficile pensare che un matematico che ricopre una posizione di ruolo in un’università non riesca, magari con l’aiuto di un collega più attivo, a trovare una rivista, scelta tra quelle della terza o quarta categoria, disposta a pubblicare un articolo contenente una riformulazione di risultati noti.  Nella migliore delle ipotesi l’enfasi della VQR sui prodotti negativi contribuirà quindi ad incrementare la produzione di articoli di scarso rilievo e nessuna utilità. Potrebbero anche prodursi nel nostro ambiente fenomeni che purtroppo sono comuni in altre discipline. Può succedere che chi, pur essendo relativamente inattivo, ricopre una posizione di rilievo in ambito organizzativo, ottenga che il suo nome sia automaticamente aggiunto all’elenco degli autori, quando chi ha effettivamente svolto la ricerca si aspetta favori o protezione. Può succedere anche che gli inattivi vengano distribuiti tra i gruppi attivi nella ricerca dello stesso dipartimento perché i loro nomi vengano inseriti nella lista degli autori. Sappiamo che la pratica di inserire automaticamente tra gli autori di un articolo scientifico il nome di chi ha una posizione gerarchica superiore a quella di chi ha effettivamente svolto la ricerca, è comune nelle scienze biomediche, in Italia e all’Estero. E’ una pratica, per ora, sconosciuta nell’ambiente matematico, ma la penalizzazione nei finanziamenti e nella reputazione di un dipartimento dovuta ai prodotti mancanti, potrebbe introdurla anche tra noi.

La mia conclusione è che la penalizzazione per i prodotti mancanti non contribuisce a migliorare la ricerca matematica in Italia.

Veniamo ora alla terza domanda: è  utile allo sviluppo della ricerca matematica svolgere un processo di valutazione come quello della VQR? Abbiamo visto che i valori negativi attribuiti ai prodotti mancanti possono produrre solo un aumento della produzione matematica di rilievo scarso o nullo. Ma c’è un altro fenomeno che dobbiamo osservare: l’enorme numero di pubblicazioni che, secondo le regole della VQR, dovevano essere valutate (oltre 4.000 per la sola matematica) ha reso obbligatorio ricorrere a criteri basati sul luogo di pubblicazione e a stilare quindi classifiche delle riviste di matematica. Nessuno dubita che esistano differenze significative tra i criteri di accettazione dei lavori per riviste diverse. E, in prima approssimazione, il luogo di pubblicazione di un articolo è un buon indicatore del suo valore scientifico[2]. Tuttavia una classifica delle riviste da parte di un’autorità nazionale può costituire una grave interferenza nel naturale processo di evoluzione delle problematiche scientifiche. In particolare una volta bollata una rivista italiana come rivista di quart’ordine sarà molto difficile per la rivista stessa risalire la china e classificarsi tra le riviste di terz’ordine, second’ordine o primo ordine. Infatti, tra i matematici italiani, solo chi non riesce a pubblicare su riviste di primo, secondo o terzo ordine invierà un lavoro ad una rivista di quarto ordine. Insomma una classifica nazionale delle riviste acquista quasi sempre un carattere permanente e non sembra rispondere alle esigenze di libertà accademica, di pluralismo ed apertura nei giudizi che dovrebbero essere osservate nella ricerca scientifica.

Dovremmo quindi concludere che la VQR così come è stata regolata in Italia non è utile allo sviluppo delle scienze matematiche ed anzi può avere effetti negativi.

Resta da chiarire un punto importante. E’ possibile una valutazione della ricerca matematica da parte di un’agenzia centrale che sia utile, o almeno non dannosa allo sviluppo della scienza?

Io penso di sì perché esiste un esempio di valutazione centrale della ricerca che ha avuto prevalentemente effetti positivi per la matematica. Si tratta dei Research Assessment Exercises (RAE) svolti nel Regno Unito. Una descrizione si può trovare nel sito www.rae.ac.it. Non è qui possibile descriverli nei dettagli possiamo però elencare alcune caratteristiche che li differenziano notevolmente dalla VQR;

1)   Sono assolutamente evitate tutte le classifiche delle diverse sedi.

2)   E’ valutata solo la produzione scientifica dei migliori docenti, scelti dalle loro sedi.

3)   La valutazione è affidata a commissioni (una per ognuna delle 89 aree di ricerca) che possono usare a loro discrezione pareri di esperti, ma che comunque restano responsabili delle valutazioni finali. Non vengono stilate classifiche delle riviste. Le commissioni vengono istruite ad usare con molta cautela valutazioni “bibliometriche”.

4)   Il finanziamento delle università di ognuna delle quattro macroregioni (Inghilterra, Irlanda del Nord, Galles, Scozia) è stabilito a priori e i RAE possono influenzare solo la distribuzione dei fondi all’interno di una macroregione, in altre parole,  università appartenenti a macroregioni diverse non competono tra loro per i fondi associati alla valutazione.

Una imitazione dei RAE è stata svolta anche in Italia. Si tratta della VTR2001-03. Questa valutazione prevedeva anch’essa classifiche delle diverse sedi ma nessun ordinamento delle riviste. Un’analisi dei suoi risultati corredata da proposte di modifica delle procedure è contenuta nell’articolo che si può trovare all’indirizzo:

http://old.sis-statistica.org/files/pdf/2008/ss_vispeciale_4figatalamanca.pdf

Ci sono però buone ragioni per ritenere che anche le future procedure di valutazione nazionale in Italia rifiutino di seguire il modello dei RAE. Sembra infatti che l’interesse di molti alle valutazioni nazionali non sia legato alla loro utilità per lo sviluppo della scienza, ma piuttosto al desiderio di snidare e punire i fannulloni. Così mentre i RAE britannici hanno contribuito a valorizzare, agli occhi di politici e commentatori esterni, la ricerca svolta dai migliori scienziati, trascinando nella valutazione positiva l’intero sistema, la VQR (come probabilmente ciò che la seguirà) sembra invece disegnata per mettere in evidenza i docenti più fannulloni che verranno certamente considerati rappresentativi di tutta l’università italiana.


[1] Un collega mi ha invece proposto una opinione diversa: le graduatorie con i loro risultati paradossali sono utili perché dimostrano che l’intero processo di valutazione è privo di senso.

[2] Anche il nome dell’autore è un ottimo indicatore, ma c’è un certo pudore nell’utilizzarlo apertamente. Nessun pudore invece nell’utilizzare il nome della rivista.

Print Friendly, PDF & Email

26 Commenti

  1. Concordo su un punto: le classifiche sono inutili.

    Per quanto riguarda le presunte “anomalie” delle classifiche, che mettono nientedimento che la Normale di Pisa dietro l’Università Terrona, credo che ciò si debba non alla VQR, che pure è criticabile, ma agli ordinari della Matematica, che confinano i bravi matematici nell’Università Terrona invece di chiamarli in cattedra a Pisa.

    A tutto vantaggio dell’Università Terrona, e meno male.

    • Gaetano Continillo, credo che lei farebbe meglio a parlare solo delle cose che conosce, e quindi a tacere circa la distribuzione qualitativa della matematica italiana. L’eccellenza assoluta dei colleghi della Scuola Normale non è discutibile, mentre sono assai discutibili i luoghi comuni che lei usa per argomentare (se le sue si possono anche chiamare argomentazioni). Le assicuro che non troverà nella sua cara “università terrona” – luogo accademico ideale che lei crea giusto per dare il solito tocco di vittimismo meridionale alla discussione – persone di caratura simile a quelle che camminano nei corridoi pisani. Se non ci crede, faccia lei stesso una ricerca sulle principali banche dati, che, immagino, siano in uso nella sua università (ma non in tutte le università campane, a quanto mi risulta). Colgo l’occasione per ringraziare Figà Talamanca per l’articolo che richiama l’attenzione su delle considerazioni che ogni matematico italiano ha fatto quando la classifica di cui sopra è apparsa. I meccanismi valutativi vanno rodati, perfezionati e cambiati se occorre. Il dibattito serve proprio a questo, non a immaginare realtà parallele atte a giustificare paradossi.

  2. Giuseppe Mingione, io conosco ciò di cui parlo.

    Nella mia Università Terrona (che non è immaginaria: è la mia Università) insegnano alcuni matematici che il GEV di Matematica – non io – a quanto leggo avrebbe classificato come molto bravi, più bravi di quelli della Normale.

    Il paradosso è nel fatto che nella mia Università non c’è una Scuola di Matematica! Difatti, i bravi matematici in parola io li vedo insegnare nelle aule della mia Università, per esempio, l’Analisi agli allievi ingegneri, e poi li vedo prendere il treno per tornare a camminare nei corridoi delle primarie Scuole matematiche di appartenenza. E meno male.

    Ovvamente, è sbagliato usare le classifiche VQR per valutare comparativamente le Scuole delle varie discipline e, mi pare, il mio racconto illustra un possibile perché – oltre quello dei prodotti mancanti per esempio. Purtroppo il rischio esiste e fa benissimo chi argomenta per dimostrare che è sbagliato. Bisogna fare attenzione però, quando si grida al paradosso, a non alimentare certe forme di classismo territoriale alle quali purtroppo molti nostri colleghi non sono immuni.

    • Spero che la polemica tra i colleghi Mingione e Continillo non vada oltre perché ci stiamo pericolosamente avvicinando a giudizi, che non dovrebbero essere espressi in questa sede, su persone ben identificate.

  3. Intanto spero che Luca Salasnich faccia le sue scuse al Prof. Figà Talamanca, e che si astenga dall’usare toni di questo genere in futuro, almeno qui sopra. Detto questo, Continillo continua ad avere le idee confuse. Ho stima e affetto per i colleghi del Sannio, alcuni dei quali conosco da quando ero ragazzo, e non ho affatto su di loro un giudizio negativo (con una collega molto brava e simpatica ho anche scritto due lavori). Ma dire che nel Sannio si produce matematica migliore di quella che si fa alla Normale è una cosa che fa ridere qualsiasi esperto. Quando gli esiti di una classifica sono paradossali sino a questo punto, si deve riflettere sui bachi valutativi, non prenderne atto e trovare spiegazioni. E per favore basta col vittimismo meridionalista. Non c’entra nulla, ma proprio nulla.

  4. A mio parere la questione davvero importante, al di là delle schermaglie nord-sud e dei casi specifici, è che le regole usate non funzionano, come il prof. Figà Talamanca ha riassunto nel suo scritto.

    Le eccellenze non vengono “viste” dalla VQR, perché non è eccellente chi presenta tre lavori da 1.0 in sette anni, ma semplicemente di livello buono. Vengono invece esasperate le inattività, per via del pesante punteggio negativo attribuito ai prodotti mancanti, e anche ingigantito l’effetto del caso sui ricercatori di livello medio e medio-basso, per via dell’enorme differenza di punteggio (0.5 vs 0) che separa la terza classe dalla quarta classe di merito VQR.

    Occorrerebbe cambiare queste regole (che non dipendono dai singoli GEV) per attenuare questi effetti distorsivi, ma ciò non toglie che usare i punteggi ottenuti per realizzare classifiche resti comunque profondamente sbagliato e fuorviante.

  5. Negli USA non esiste l’equivalente della VQR, dell’ANVUR, dell’ASN, e nemmeno -horribile dictu- l’equivalente del MIUR. Eppure credo che la matematica lì vivacchi lo stesso. Forse bisognerebbe andare a dare un’occhiatina a cosa fanno, e vedere se c’è qualcosa che si può importare in Italia.

    • E infatti la scienza italiana (e forse anche quella europea) sarà salvata dalla scienza americana, che si svolge in una società pluralista, ed esercita una indubbia leadership mondiale. Alla fine per un matematico conterà di più aver pubblicato su “Annals of Mathematics”, che il giudizio della VQR o ASN, basato sui numeri di articoli e citazioni.

  6. Alcuni brevi commenti alla lettera.

    Punto 1. Il settore 01 comprende anche gli informatici e non solo i matematici.

    Punto 2. Se non vanno bene gli indicatori bibliometrici non si può richiamare mathscinet per dimostrare la stranezza delle graduatorie. Inoltre la banca dati mathscinet, soprattutto per le citazioni, è limitata ad alcune riviste di matematica. Non capisco perchè alcuni contributi apprezzati dalla comunità scientifica attraverso l’elevato numero di citazioni sulle principali bache dati dovrebbero essere valutati negativamente dai matematici perchè magari non sono presenti o ben citati su mathscinet.

    • Le graduatorie riportate nella lettera si riferiscono al “macrosettore” matematica che non comprende l’informatica. MathScinet con le sue recensioni ed indicazioni precise delle (o almeno di alcune) citazioni, può essere un utile ausilio per chi vuol farsi un’idea della qualità della ricerca matematica di una persona o di un insieme molto piccolo di persone. Ma può funzionare solo nelle mani di un esperto che sappia valutarne i limiti, compresi quelli indicati dal mio gentile interlocutore.

  7. Condivido che avere lavori e/o citazioni in mathscinet consente di farsi un’idea della qualità della ricerca matematica, ma non condivido un utilizzo improprio di tale strumento. Ovvero stabilire che i lavori di ambito matematico aventi un numero elevato di citazioni sulle principali banche dati, ma un numero limitato di citazioni su mathscinet, siano classificati in “limitati” perchè il loro impatto su una comunità matematica ristretta è stato limitato. Questo criterio di classificazione sembra sia stato adottato da parte di alcuni “matematici”, non logici, sia nella vqr che nella procedura asn. Cioè le pubblicazioni scientifiche che riguardano le tematiche interdisciplinari pertinenti ad un settore scientifico disciplinare sono state considerate “limitate”

    • Qualche osservazione sulle obiezioni di Missing at Random (devo dire oltretutto che non si capisce perché
      non voglia firmarsi, non c’è nessun pericolo a discutere le proprie idee in pubblico, in modo civile e pacato).

      La matematica, come altre discipline fortemente teoriche, vede nei suoi aspetti più avanzati e qualificati sviluppi che difficilmente possono trovare immediato riscontro nella comunità esterna e, quindi, applicazioni. D’altro canto è abbastanza facile osservare che applicazioni anche abbastanza banali possono essere citate in modo massiccio da altre parti della comunità scientifica proprio perché più accessibili e pronte per l’uso. Parti che possono avere tra l’altro standard bibliometrici completamente diversi, la cui considerazione può quindi indurre distorsioni. Questo non ha nulla a che fare con la qualità e l’innovatività ma con l’applicabilità, che è una cosa completamente diversa (sia chiaro, anch’essa importante). Di esempi di fenomenologie simili se ne possono fare tanti in altri contesti: un pianista classico che decide di incidere un disco con pezzi pop venderà sicuramente di più di uno che incide un disco con pezzi della Nuova Scuola di Vienna. Questo non vuol dire che il prodotto sia di qualità maggiore; sta semplicemente in un’altra categoria e beneficia di standard differenti. Questi sono i motivi elementari per cui la valutazione degli articoli di matematica va fatta all’interno della comunità e non fuori, pena, di nuovo, la distorsione. Ed è lo stesso motivo per cui Mathscinet è preferibile alle altre banche dati, con le recensioni spesso abbastanza precise che possono fornire un primo elemento di valutazione specifica. Se poi un matematico decide improvvisamente di dedicarsi ad applicazioni ingegneristiche o in economia, dovrà allora misurarsi anche con gli ingegneri e gli economisti, e con i loro standard bibliometrici, non solo con quelli dei matematici.

      Vorrei aggiungere qualche considerazioni personale sull’uso delle citazioni, che possono essere a mio parere uno strumento di valutazione assai utile e importante anche in matematica, purché se ne faccia buon uso. Mi appare necessario distinguere l’uso delle citazioni quando si formulano valutazioni sui singoli e quando invece si formulano su strutture. Nel primo caso esse vanno usate come uno dei tanti indicatori che concorrono alla valutazione, non prescindendo mai dal giudizio di merito. Esse andrebbero usate su carriere abbastanza lunghe quando si valuta la produzione globale di una persona. Inoltre, per valutare l’impatto di un singolo lavoro, esse appaiono in generale molto più indicative di quanto possa dire il forum su cui questo è apparso, anch’esso però un indicatore importante (questa per altro mi pare una cosa raccomandata da tutti i gruppi di studio sull’uso dei parametri bibliometrici: guardare all’impatto del singolo lavoro più che a quello della rivista su cui è stato pubblicato). Inoltre esse dovrebbero essere usate come primo strumento di ricognizione per identificare casi estremi (molte citazioni –> probabile eccellenza; troppo poche, quasi niente –> campanello d’allarme). Ci saranno ovviamente sempre singolarità, ma queste saranno in generale ben note e distinguibili tramite il giudizio di merito. Le citazioni possono inoltre essere un valido strumento contro alcune aberrazioni a cui abbiamo potuto assistere in vari concorsi nelle ultime decadi (commissari che dichiaravano la natura fondamentale di lavori irrilevanti; l’uso di un parametro freddo avrebbe senz’altro aiutato a scardinare certe argomentazioni).

      Per quanto riguarda l’uso delle citazioni per valutare grosse strutture, mi pare che qui ci sia stata assai confusione. Il problema della VQR non è stato l’uso delle citazioni, ma la penalizzazione dei prodotti mancanti, che ha indotto ovvie distorsioni, e che paradossalmente penalizza le eccellenze. In una valutazione massiva come la VQR non mi pare ci possa essere altra scelta che quella biblioiatrica (chi reclama l’uso della valutazione esperta pare non sapere troppo quello di cui parla, oltretutto una valutazione esperta c’è già stata al momento della sottomissione su rivista). In questo caso procedimenti di media possono ristabilire corrette valutazioni. Inaccettabile in ogni caso la posizione di quelle persone (tra l’ingenuità e la malafede) che vogliono usare la VQR per formulare valutazioni sui singoli, che si fanno in modo completamente diverso, per ovvie ragioni.

    • Concordo con la frase:

      “Le citazioni possono inoltre essere un valido strumento contro alcune aberrazioni a cui abbiamo potuto assistere in vari concorsi nelle ultime decadi (commissari che dichiaravano la natura fondamentale di lavori irrilevanti; l’uso di un parametro freddo avrebbe senz’altro aiutato a scardinare certe argomentazioni)”.

      Non mi sembra però che in ambito matematico questa argomentazione abbia molto seguito. Non credo infatti che l’autore del post (AFT) sarebbe d’accordo. E neppure alcuni gestori di ROARS, credo.

      Cosi come non credo che essi siano d’accordo con il fatto che le citazioni

      “dovrebbero essere usate come primo strumento di ricognizione per identificare casi estremi (molte citazioni –> probabile eccellenza; troppo poche, quasi niente –> campanello d’allarme). Ci saranno ovviamente sempre singolarità, ma queste saranno in generale ben note e distinguibili tramite il giudizio di merito.”

      E’ proprio per questo che scrivo su ROARS: evidenzare come alcuni argomenti anti-bibliometrici sono, secondo me, amplificati su ROARS in maniera caricaturale.

    • “alcuni argomenti anti-bibliometrici sono, secondo me, amplificati su ROARS in maniera caricaturale”
      =====================
      La vera divaricazione è tra un uso scientificamente corretto, filtrato attraverso il giudizio di valutatori consapevoli, e uso normativo-stregonesco. È ingenua la posizione manichea di chi ragiona in termini pro- e contro-bibliometrici, vedendo amplificazioni caricaturali quando ci si limita a citare quanto noto e accettato a livello internazionale. A chi ha poca pratica con lo stato dell’arte scientometrico internazionale possono apparire “anomale” posizioni che sono del tutto standard, mentre ad essere anomalo è il feticismo bibliometrico nostrano che ha dato valenza normativa agli indicatori bibliometrici. Nei post di Roars sono riportati tali e quali (spesso con citazioni virgolettate) argomenti le cui fonti sono:
      _____________________
      D.N. Arnold (past president of the Society for Industrial and Applied Mathematics)
      http://www.siam.org/news/news.php?id=1663
      _____________________
      R.R. Ernst (Nobel prize in Chemistry)
      http://www.chab.ethz.ch/personen/emeritus/rernst/publications
      _____________________
      International Mathematical Union (IMU), International Council of Industrial and Applied Mathematics (ICIAM), and the Institute of Mathematical Statistics (IMS): Joint Committee on Quantitative Assessment of Research: Citation Statistics
      http://www.iciam.org/QAR/CitationStatistics-FINAL.PDF
      _____________________
      Higher Education Funding Council for England (HEFCE), Report on the pilot exercise to develop bibliometric indicators for the Research Excellence Framework , released: September 2009.
      http://www.hefce.ac.uk/pubs/hefce/2009/09_39/
      _____________________
      House of Commons, Science and Technology Committee, Peer review in scientific publications, Eighth Report of Session 2010–12, released: 28 July 2011.
      http://www.publications.parliament.uk/pa/cm201012/cmselect/cmsctech/856/856.pdf
      _____________________
      European Mathematical Society: Code of Practice
      http://www.euro-math-soc.eu/system/files/COP-approved.pdf
      ____________________________
      European Physical Society: On the use of bibliometric indices during assessment
      http://www.eps.org/news/94765/
      ____________________________
      Institut de France, Académie des Sciences: Du Bon Usage de la Bibliometrie pour l’Évaluation Individuelle des Chercheurs”
      http://www.academie-sciences.fr/activite/rapport/avis170111gb.pdf
      ____________________________
      DORA – San Francisco Declaration on Research Assessment – ), sottoscritta da più di 400 organizzazioni (comprese riviste come Science, Plos e PNAS) e 9.000 individui
      http://am.ascb.org/dora/
      ____________________________
      IEEE Board of Directors: Position Statement on “Appropriate Use of Bibliometric Indicators for the Assessment of Journals, Research Proposals, and Individuals”
      https://www.roars.it/wp-content/uploads/2013/11/IEEE-Bibliometric-Statement.pdf

    • Si si, sono ingenuo ed ho poca pratica.
      :-(

      Però, ad esempio, la tiritera delle “code non gaussiane” sono 20 anni che la sento (in tutte le salse ed applicata praticamente a tutto).
      ;-)

    • Una delle principali caratteristiche dei dibattiti in Italia pare essere quella della polarizzazione. Non esistono posizioni intermedie, si deve per forza stare ad uno degli estremi. Così è accaduto anche per ROARS, puntualmente scambiato da alcuni per un blog schierato a difesa dall’esistente e non considerato come un forum aperto in cui possono confrontarsi riflessioni ed esperienze diverse. E’ un atteggiamento spiacevole e pericoloso, che ho riscontrato persino io, nel mio piccolo, quando discutendo con qualche sedicente riformatore, non a caso situato in una grigia zona di confine tra accademia, giornalismo e politica, mi sono sentito dare del “difensore del sistema”. “Se non dici che va tutto male, stai dicendo che va tutto bene”, questo pare essere il motto di alcuni personaggi, spesso provenienti da comunità in cui le teorie paiono difendersi più con l’intimidazione che con l’argomentazione rigorosa.

      Gli indici bibliometrici sono una cosa relativamente nuova, e come tutte le cose nuove deve essere vagliata e migliorata, attraverso un dibattito che deve essere il più possibile aperto, nella migliore tradizione della comunità scientifica. Spero quindi che qualsiasi appunto sull’uso che se ne faccia non venga scambiato per opposizione a oltranza. Vorrei allora ricordare che tale dibattito e’ necessario. Abbiamo infatti recentemente assistito all’immediato abuso di tali indici, fino ad assistere al triste spettacolo di qualcuno che ha compilato classifiche tra scienziati appartenenti a campi completamente diversi usando le citazioni ma senza neanche ricordarsi di rinormalizzare per (macro)settore. Tali usi spericolati sono esattamente il risultato, in questo caso assai estremo, di quello che succede quando si adotta immediatamente una metodologia, senza preliminarmente rifletterci su. Sono risultati pericolosi, perché rischiano di sedimentarsi nell’opinione pubblica e avere ricadute assai serie e dannose.

      Infine due parole sulla matematica: non mi pare di aver visto un atteggiamento di chiusura verso gli indici bibliometrici da parte dei matematici. Mi sembra di aver invece visto una maggiore saggezza nel prenderli per quello che sono: uno dei possibili strumenti di valutazione, da usare con accortezza e non in modo automatico.

  8. Caro Interlocutore,

    secondo me l’anonimato elimina eventuali preconcetti.
    Ti ringrazio per la risposta, vorrei aggiungere un paio di commenti finali. Un compositore come J. Strauss, che si è dedicato alla musica popolare,
    con delle composizioni per musica da ballo (nonostante il padre musicista non fosse proprio d’accordo), in quale categoria andrebbe inserito? In quale andava inserito all’epoca?
    Altro esempio; non mi sembra che l’algoritmo RSA da un punto di vista matematico abbia portato un contributo matematico enorme alla teoria dei numeri. Eppure è ampliamente citato sia in mathscinet che altrove. Ma vi sono altri lavori dello stesso campo che però non hanno avuto lo stesso trattamento.

    Secondo il mio parere tra quelli che sviluppano la matematica astratta e quelli che ne utilizzano le applicazioni banali occorre considerare anche (nella classe di coloro che fanno ricerca in matematica) coloro che fanno lo sforzo di utilizzare risultati teorici e generali in delle applicazioni e coloro che cercano di generalizzare alcune teorie formali partendo dal fatto che quelle attuali non sempre si concretizzano in certi fenomeni della vita reale o del comportamento umano.

    In sintesi non è facile dare una definizione “del matematico” e di come si debba fare ricerca in “matematica”. Come dice il prof. Talamanca, le recensioni e le citazioni di mathscinet possono essere un utile ausilio ma non l’unico per valutare la qualità della ricerca in matematica.

    Infine, relativamente ai contributi negativi dei soggetti non valutati faccio notare che la loro semplice esclusione coinciderebbe con una valutazione pari a zero, identica a quella ottenuta da molti che hanno presentato invece dei lavori. Invece, non mi trovo d’accordo sul fatto che alcuni lavori abbiano ricevuto valutazioni completamente estreme da due, e a volte da tre, gev diversi della stessa macroarea.
    Per ovviare a questo problema, si potrebbe pensare nella prossima VQR di poter inviare il lavoro sino ad un massimo di 2,3 gev e poi scegliere come valutazione la media o il massimo tra i valori.

    Buon fine settimana

    • E` difficile non sottoscrivere l’appello alla pacatezza del confronto dialettico rivolto da G. Mingione, ma osservo che quando scrive:

      “Infine due parole sulla matematica: non mi pare di aver visto un atteggiamento di chiusura verso gli indici bibliometrici da parte dei matematici. Mi sembra di aver invece visto una maggiore saggezza nel prenderli per quello che sono: uno dei possibili strumenti di valutazione, da usare con accortezza e non in modo automatico.”

      si sbaglia perché, purtroppo, di fatto, non e` cosi`. Basta leggere i giudizi della commissione di analisi della recente ASN, in cui alcuni casi sono eclatanti.

      There is no substitute for hard work. Chi vuole giudicare seriamente un lavoro, deve leggerlo. Al momento non esiste un “calculemus!” nella logica della valutazione dei lavori. Se e quando esistera` ne riparleremo. Eppure i commissari del citato procedimento nazionale, a giudicare da quello che hanno scritto, pensano che quel giorno sia già arrivato.

      Su questo credo che G. Mingione sia d’accordo, perche’ scrive che “[gli indici bibliometrici devono] essere usati con accortezza e non in modo automatico”.

      Pero` scrive anche che gli indici bibliometrici “sono una cosa relativamente nuova e, come tutte le cose nuove, deve essere vagliata e migliorata”.

      Se questo imperativo riflette la speranza che possano un giorno essere dirimenti, allora a mio avviso tale speranza e` vana, salvo sperare in scenari fantascientifici dove l’intelligenza artificiale si sostituisce alla nostra e ci butta fuori. A quel punto potremo appunto anche lasciare tutto alle macchine, visto che saremmo inutili.

      Forse pero` che questo suo imperativo rifletta una generica speranza nel progresso della tecnica. Gli indici bibliometrici sarebbero come una nuova meraviglia della tecnica moderna, che produce aggeggi sempre più perfetti ecc… Ma lasciamo per un momento da parte scenari, speranze e imperativi, e guardiamo alla realtà: la valutazione bibliometrica e` un sistema grottescamente pericoloso per la scienza e difficile da scardinare:

      Aardvark et al.: quality journals and gamesmanship in management studies. Journal of Information Science. Journal of Information Science  December 2007   vol. 33  no. 6  702-717

      

http://jis.sagepub.com/content/33/6/702

      ecc ecc ecc ecc ecc

      E quando qualcuno dice che “c’e` in atto una mobilitazione di chi vuol mantenere il proprio potere discrezionale e preme perché i cambiamenti siano gattopardeschi”, rispondo che la vera mobilitazione e` quella degli amministratori delegati delle ditte che fabbricano questi indici.

      Da un punto di vista culturale, gli indici bibliometrici sono basati sull’idea che, essendo “oggettivi”, possano essere usati per sostituirsi ai nostri giudizi “soggettivi”. A mio avviso non bisogna mai stancarsi di tenere a bada questa idea, che e` di fatto una idea disumana, nel senso che ci allontana dall’umanita` (cf. “Dialettica dell’illuminismo” di Horkheimer e Adorno). Cauchy ha bocciato il giovane Galois all’esame di ammissione (alla scuola politecnica, mi sembra). Galois gli parlava del logaritmo come di un omomorfismo dal gruppo moltiplicativo dei numeri positivi al gruppo additivo di tutti i numeri reali, e Cauchy non capiva che cosa questo giovane gli stesse dicendo. E’ stato il suo un giudizio soggettivo o oggettivo? Siamo oggi in grado di concepire un procedimento automatico e oggettivo per evitare il ripetersi di questi incidenti? E Cauchy non era in cattiva fede. Non e’ che dovesse far passare un suo protetto mediocre al posto di Galois.

  9. Il gentile collega di Biase esprime degli auspici che molti possiamo condividere, ma credo che francamente la commissione che ha lavorato per l’ASN di Analisi abbia fatto, nei limiti di tempo e spazio che ad essa sono stati concessi, il meglio che poteva. E credo anche che ai commissari, che hanno speso tanto tempo ed energie per portare a termine questo compito assai gravoso, vada un ringraziamento. Vorrei porre però a Fausto di Biase una domanda. L’esito dell’ASN di Analisi è stato peggiore o migliore dell’esito medio dei precedenti concorsi locali (in cui, almeno in linea teorica, si presume che le commissioni abbiano letto i lavori dei candidati)?

  10. La difesa offerta dal gentile collega ricorda un po’ le idee di Leibniz sulla teodicea.

    Non so dire se il problema sia stato il tempo. Pero`, se qualcuno mi affida un compito, dandomi una tempistica che mi impedisce di svolgerlo bene, rifiuto l’incarico. Fa parte della normale etica della responsabilità individuale. La bibliometria fornisce un comodo alibi per deresponsabilizzarci.

    Cauchy si e` assunto le sue responsabilità, compresa quella di bocciare Galois all’esame di ammissione al politecnico. Non ha detto che aveva avuto poco tempo. Non si e` nascosto dietro un indice. E infatti Cauchy e` passato alla storia, tra le altre cose, non solo per non aver visto la differenza tra convergenza uniforme e convergenza puntuale, ma anche per aver bocciato Galois.

    Alcuni dei “giudizi” dei commissari, nel procedimento di cui sopra, consistono in una sfilza di numeri e numeretti. Ci sarebbe da ridere, se non ci fosse da piangere. Per produrre quella sfilza di numeri e numeretti, sarebbe bastata una macchina. E, infatti, quei numeri e numeretti sono stati prodotti da una macchina, per giunta a pagamento, e per giunta sulla base di dati incompleti. Ma allora non era una questione di tempo.

    Il sistema dei concorsi locali e` nato male ed e` stato usato peggio. Scegliere tra due sistemi che, per motivi diversi, sono entrambi da cestinare, ripropone, nella dialettica del dibattito, proprio quella polarizzazione che, giustamente, era stata stigmatizzata poco prima.

    Non sono in grado di dire se i risultati siano migliori o peggiori dell’esito medio dei precedenti concorsi locali, perché per dirlo dovrei leggermi i lavori di tutti i candidati di tutti i concorsi oggetto della domanda.

    Ma forse il senso della domanda e` un altro, e consiste nel dire, implicitamente, che anche quando i lavori bisognava leggerli le cose non andavano bene.

    Sarebbe sciocco negarlo.

    Per rispondere con maggiore precisione, dovrei adottare un ben preciso punto di vista. Guardiamo le cose sub specie aeternitatis, visto che, come diceva qualcuno, a lungo andare saremo tutti morti. Dico “sub specie aeternitatis”, ma in senso “laico”, come si dice volgarmente, anche se sono credente: voglio dire: guardiamo le cose in base agli effetti a lungo termine che il sistema bibliometrico avrebbe sul progresso della scienza.

    Sostengo che il sistema bibliometrico corrompe la scienza, per mezzo di effetti perversi che finirebbero per distruggerla.

    In primis: il sistema bibliometrico ci dice che non dobbiamo più leggere i lavori per giudicarli. Idea aberrante.

    Secondo: in base al fenomeno riassunto dal motto

    “the indicator [of performance] becomes the target”,

    il sistema bibliometrico crea distorsioni letali alla attività di genuina ricerca. Vorrei citare a questo proposito

    Aardvark et al.: quality journals and gamesmanship in management studies. Journal of Information Science. Journal of Information Science December 2007 vol. 33 no. 6 702-717
    

http://jis.sagepub.com/content/33/6/702

    dove la parola chiave e` “gamesmanship”.

    Terzo: il sistema spinge a pubblicare su temi alla moda, al posto di affrontare problemi che stimolano la nostra naturale curiosita`.

    Questo e` un danno gravissimo, perché la nostra naturale curiosità, se non viene nutrita, si spegne: ma la storia insegna che il progresso scientifico e` basato sulla curiosità e non sulle mode.

    A quanto pare l’evoluzione preferisce la differenziazione, in quanto in qualche modo aumenta le possibilità di sopravvivenza, ma il conformismo delle mode uccide proprio la differenziazione. Ricordo una istruttiva conferenza di John Milnor, che esordi` dicendo che alcuni matematici pensano di possedere la chiave che apre tutte le porte, mentre invece la storia insegna che il progresso procede su più fronti.

    Quarto: il sistema bibliometrico incoraggia e spinge a una serie di comportamenti che nulla hanno a che fare con la scienza e anzi recano un serio danno al progresso scientifico: formare cordate di autori che si citano vicendevolmente ecc (un ingegnoso espediente sarebbe stato ideato e applicato, mi duole profondamente dirlo, da un collega del mio ateneo, in un caso assurto agli onori della cronaca … su Nature, ma anche su Roars; ma non ho seguito la vicenda in tutti i dettagli, e non so dire se il collega sia stato scagionato da quelle accuse, o se sia stato oggetto di provvedimenti disciplinari).

    Quinto: il sistema bibliometrico rende più facile per una cordata raggiungere posizioni egemoniche, conquistare il mondo (accademico), e annientare definitivamente tutti gli avversari (annullando proprio quella differenziazione che e` vitale per il progresso scientifico).

    Quale idea della teoria e della pratica della scienza si farebbero i giovani cresciuti in un ipotetico stato dominato dalla bibliometria?

    • Ho trovato interessante l’articolo di Aardvark et al., della cui segnalazione ringrazio Fausto De Biase. Ne cito un estratto delle conclusioni con un insolito riferimento a Neverland e alla fata Campanellino:
      ___________________
      “The tension between professionalism and managerialism in the modern university is almost palpable. The former requires collegiality; the latter control. In a professional system, the academic writes partly for his own benefit and partly for public benefit. In a managerial system, the academic writes for the organization [66]. In a professional system, academics are trusted to perform. Managerialism demands indicators of performance in order to monitor the behaviour of employees. Publication in quality journals has become the chief of these indicators in management studies.
      […]
      Publication in quality journals has become a currency, representing value rather than having any intrinsic worth, and maintained only by consensus. Papers published in quality journals are money rather than wealth; they are published to be counted rather than read.
      […]
      We might start by taking what we call the ‘Tinkerbell option’. Tinkerbell was saved by children everywhere clapping their hands to demonstrate their belief in fairies. Quality journals also need applause to survive in our academic Neverland. Ridicule and mockery mean good riddance to Tinkerbell, but Tinkerbell is a small price to pay for restoring some sanity to publishing in the journals of management studies.”
      _________________________
      Aardvark et al.: quality journals and gamesmanship in management studies. Journal of Information Science. Journal of Information Science December 2007 vol. 33 no. 6 702-717
      

http://jis.sagepub.com/content/33/6/702

  11. Relativamente agli esiti dell’abilitazione nel settore di Analisi e Probabilità, consideriamo i seguenti dati.

    Nel settore 01A3 (Analisi e Probabilità) concorrevano coloro che avevano fatto ricerca nei due ssd: Mat/05 Analisi Matematica e Mat/06 Probabilità e Stat. Mat.

    I Ricercatori in Mat/06 candidati per la seconda fascia del settore concorsuale 01A3 sono stati in tutto 32. Gli abilitati tra i candidati ricercatori in Mat/06 soltanto in 8 (25%).

    I candidati per la seconda fascia del settore concorsuale 01A3 sono stati in tutto 290. Hanno ottenuto l’abilitazione in 144 (~49,7 %).

    Consideriamo anche il settore concorsuale 13D1, statistica (di Area 13)
    I Ricercatori in Mat/06 candidati per la seconda fascia del settore concorsuale 13D1 (Statistica) sono stati in tutto 11. Gli abilitati tra i candidati Ricercatori in Mat/06 sono stati in tutto 4 (~36 %).

    Da questi dati si nota che la percentuale di abilitati tra i candidati ricercatori del settore mat/06 che hanno partecipato per 13D1 (Statistica) è maggiore della percentuale di abilitati tra i candidati ricercatori del settore mat/06 che hanno partecipato per 01A3 (Analisi e Probabilità).

    • Ricordiamo anche che, dei cinque membri della Commissione del settore 01/A3, quattro sono analisti, ed uno solo è il probabilista. Un vistoso squilibrio, che le regole di questa ASN, purtroppo, hanno reso possibile.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.