Anvur / Argomenti / Reclutamento

Abilitazioni: le mediane di Mr. Bean

Le mediane fai-da-te dell’ANVUR tra comicità ed etologia accademica

Perché Mr. Bean fa ridere? Non solo perché è maldestro, ma anche perché, contro ogni evidenza, non si arrende di fronte ai suoi errori ma, imperturbabile, si crede capace di escogitare soluzioni geniali, che alla prova dei fatti si rivelano catastrofiche. Le risate nascono proprio dal contrasto tra la dura realtà e la sua ingenua convinzione di venire a capo dei problemi con il fai-da-te più estremo e sgangherato. Per quanto il suo candore ce lo renda simpatico, ciò nondimeno nella vita reale Mr. Bean sarebbe un irresponsabile della peggior specie, pericoloso per se stesso e per gli altri.

 Difficile sostenere che le norme ideate dall’ANVUR siano altrettanto esilaranti delle comiche di Mr. Bean, soprattutto per coloro che si giocano la carriera destreggiandosi tra età accademica con licenza di manipolazione, mediane in libertà vigilata (per di più une e trine) e interpretazioni regolamentari degne di una neolingua orwelliana. E tuttavia, le norme ideate dall’ANVUR riescono ad essere maldestre quasi quanto le migliori trovate di Mr. Bean: dalla classifica di Nonna Papera per la VQR fino ad arrivare all’indice di Katsaros non c’è che l’imbarazzo della scelta. Da ultime, sono finite sotto i riflettori le mediane delle abilitazioni scientifiche che, come mostreremo in questo articolo, sono non solo maldestre ma anche potenzialmente discriminatorie.

Mediana mon amour

Prima di procedere ricordiamo brevemente il quadro normativo. I membri delle commissioni giudicatrici che attribuiranno le abilitazioni scientifiche nazionali verranno sorteggiati tra i professori ordinari che daranno la loro disponibilità. Tuttavia, potranno partecipare al sorteggio solo coloro che supereranno delle soglie quantitative di produttività ed impatto scientifico, definite sulla base del concetto statistico di mediana.

Fissiamo, per esempio, l’attenzione su un indicatore molto semplice, come il numero di citazioni ricevute nella letteratura scientifica. Se in un settore concorsuale ci sono duecento professori ordinari, una volta stilata una classifica basata sulle citazioni ricevute, il criterio della mediana è superato dai primi cento professori, mentre esclude la seconda metà. Per i cosiddetti settori bibliometrici, possono partecipare al sorteggio i professori ordinari che superano il criterio della mediana per almeno due indicatori bibliometrici sui tre considerati: numero di articoli, citazioni e indice h di Hirsch.

Lo stesso requisito si applica ai candidati all’abilitazione scientifica di prima fascia: per non essere esclusi dalla valutazione devono superare il criterio della mediana per almeno due indicatori bibliometrici su tre, usando come riferimento le statistiche bibliometriche dei professori ordinari del settore concorsuale (previa normalizzazione per l’età accademica). Per i candidati all’abilitazione di seconda fascia, le mediane sono costruite sulla base delle statistiche dei professori di seconda fascia.

L’adozione di questi criteri si presta a molteplici obiezioni sia di principio che operative. Da un lato, sulla scia di una vasta letteratura internazionale, è lecito domandarsi se sia possibile assegnare un ruolo così decisivo a indicatori di tipo puramente numerico e se ciò non finirà per distorcere gravemente i comportamenti futuri di chi intraprenderà la carriera universitaria. Dall’altro, l’applicazione pratica dei criteri si scontra con oggettive difficoltà di rilevazione, aggravate da norme confuse se non persino inapplicabili, con il rischio concreto che le abilitazioni naufraghino sotto i colpi dei ricorsi. In questo articolo, sorvoleremo tutti questi aspetti, prendendo in esame solo le regole per il calcolo delle mediane. In particolare, si farà riferimento a quanto prescritto nell’Art. 15 della Delibera ANVUR n. 50 del 21/6/2012 che integra dal punto di vista tecnico le norme del D.M. “Criteri e parametri”, n. 76 del 7/6/2012.

Più mediane per tutti

Un aspetto fondamentale degli indicatori di produttività ed impatto bibliometrici è che le loro proprietà statistiche variano notevolmente a seconda della disciplina scientifica considerata. Per esempio, i medici scrivono mediamente più articoli e si citano di più a vicenda di quanto non facciano i matematici. Sarebbe del tutto assurdo usare la stessa soglia di citazioni o di h-index per individuare medici e matematici “di spicco”. Apparentemente, il criterio della mediana è immune a questa obiezione in quanto determina la soglia proprio sulla base delle statistiche bibliometriche di ogni specifico settore concorsuale. Tuttavia, possono esistere differenze significative anche dentro lo stesso settore concorsuale, nel qual caso usare un’unica mediana per comunità scientifiche con “differenze strutturali nelle modalità di ricerca e pubblicazione dei risultati scientifici” sarebbe iniquo. Alberto Baccini ha illustrato assai bene uno di questi casi nell’articolo “Tu chiamala, se vuoi, valutazione”. In effetti, già nei suoi primi documenti del 2011, l’ANVUR aveva contemplato la possibilità di ricorrere a mediane multiple all’interno dello stesso settore concorsuale.

A scopo illustrativo, proveremo ad applicare le regole ANVUR ad un ipotetico settore concorsuale composto da 200 professori ordinari afferenti a tre diversi SSD (Settori Scientifico Disciplinari).

  • Totale settore concorsuale: 200 professori ordinari
  • SSD α: 100 professori ordinari (50%)
  • SSD β: 28 professori ordinari (14%)
  • SSD γ: 72 professori ordinari (36%)

Nella figura, viene mostrato come si distribuisce il valore di un indicatore bibliometrico (le citazioni per es.) nei tre SSD. Nella figura, l’eterogeneità dei SSD è volutamente accentuata per rendere più semplici i ragionamenti. Tuttavia, anche in casi meno eterogenei, continuano a valere i paradossi e le discriminazioni che verranno evidenziati nel seguito.

Salta subito all’occhio che i 100 professori ordinari del SSD α sono più citati di quelli degli altri due SSD, con quelli del SSD β che sono più citati di quelli del SSD γ. Se si stila una classifica unificata per tutto il settore concorsuale, la mediana del settore concorsuale separa i professori del SSD α da tutti gli altri. Usare questa mediana sarebbe del tutto ingiusto: dato che stanno a sinistra della mediana, verrebbero esclusi dalle commissioni tutti i professori degli SSD β e γ. In realtà, il grafico mostra chiaramente che in questi due settori si viene citati molto di meno e che il più citato professore del SSD β potrebbe avere meno citazioni di un professore scarsamente citato del SSD α. Come venirne a capo? Una volta riconosciuto che i tre SSD corrispondono a comunità scientifiche eterogenee, la soluzione naturale è quella di usare una mediana distinta per ciascun SSD, come illustrato nella figura seguente.

Nella figura, il colore verde identifica i professori ordinari selezionabili come commissari ed il colore rosso quelli che verrebbero esclusi perché al di sotto della soglia bibliometrica. Si vede che questa soluzione produce un “parco commissari” in cui i tre SSD sono rappresentati in modo proporzionale alla loro numerosità:

  • Totale sorteggiabili: 100 professori su 200
  • SSD α: 50 sortegggiabili (50% dei sorteggiabili)
  • SSD β: 14 sortegggiabili (14%)
  • SSD γ: 36 sortegggiabili (36%)

Naturalmente, il sorteggio potrà produrre situazioni squilibrate, ma le opportunità di partenza rispecchiano equamente la numerosità. Questa soluzione, oltre che essere semplice e naturale, non attribuisce un valore improprio alle citazioni, che vanno giudicate in termini relativi. Il fatto che il SSD α sia abituato a citare più frequentemente non giustifica un giudizio di merito che lo ritenga superiore agli altri due SSD.

Le mediane fai-da-te dell’ANVUR

Dopo aver visto la soluzione naturale, proviamo ora ad applicare la regola fai-da-te dell’ANVUR facendo riferimento alla seguente figura.

Procediamo un passo alla volta seguendo l’Art. 15 della Delibera ANVUR.

a) si calcola la mediana del settore concorsuale;

La mediana del settore concorsuale è indicata in nero. Come già osservato, separa il SSD α, che sta sopra, dagli altri due SSD che stanno sotto.

b) si calcola la mediana per tutti i SSD appartenenti al settore concorsuale che abbiano al loro interno almeno 30 professori ordinari

Secondo l’ANVUR, la mediana del SSD β non va nemmeno calcolata perché è composto da soli 28 professori ordinari. Nelle figure, le mediane dei SSD αγ sono indicate in blu e arancione, rispettivamente.

c) se il SSD ha una mediana superiore o uguale a quella del settore concorsuale si applica ai professori ordinari che vi afferiscono la mediana del settore concorsuale;

L’unico SSD che ha la mediana superiore a quella del settore concorsuale è il SSD α. Dato che questo SSD sta tutto sopra la mediana nera del settore concorsuale, ne segue che il 100% dei suoi professori sono sorteggiabili (in verde).

d) se il SSD ha una mediana inferiore a quella del settore concorsuale si calcola il numero dei professori ordinari del SSD il cui indicatore supera la mediana del settore concorsuale. Se il numero è superiore al 25% dei professori ordinari del SSD si procede come in c). Se il numero è inferiore al 25% per il SSD e per tutti i docenti che vi afferiscono si utilizza la mediana del SSD.

Per il SSD γ, la percentuale è inferiore al 25% dato che nessuno dei suoi professori supera la mediana nera del settore concorsuale. Pertanto, per i docenti del SSD γ vale la mediana arancione e metà di essi (36 su 72) sono sorteggiabili come commissari. Si noti che per il SSD β, la mediana non è stata nemmeno calcolata e pertanto per i suoi docenti vale la mediana nera del settore concorsuale. Dato che tutto il SSD β sta sotto tale mediana, nessuno dei suoi professori sarà sorteggiabile. Riassumendo:

  • Totale sorteggiabili: 136 professori su 200
  • SSD α: 100 sortegggiabili (74% dei sorteggiabili)
  • SSD β: 0 sortegggiabili (0%)
  • SSD γ: 36 sortegggiabili (26%)

Persino Mr. Bean rimarrebbe perplesso del risultato. Su 200 ordinari quelli sorteggiabili non sono 100, ma 136, ovvero 100 professori su 100 del SSD α e 36 professori su 72 del SSD γ. Il SSD β viene pesantemente discriminato: nessuno dei suoi ordinari risulta sorteggiabile. Pesce grande mangia pesce piccolo?

Mettiamoci una pezza

Se persino Mr Bean è perplesso, a maggior ragione è lecito sperare che l’ANVUR cercherà di metterci una pezza. In efffetti, la parte finale dell Art. 15 offre una scappatoia ampiamente discrezionale

A fronte di evidenti eterogeneità negli indicatori non dipendenti dalla produttività degli autori ma da differenze strutturali nelle modalità di ricerca e pubblicazione dei risultati scientifici, sarà possibile prendere in considerazione anche SSD di dimensione inferiore a 30 professori ordinari.

Prima di procedere con la pezza, vale la pena di notare che l’ossessione per la produttività ha giocato un brutto scherzo all’ANVUR. Infatti, se le differenze tra i tre SSD fossero esclusivamente dovute alla produttività e non a “differenze strutturali nelle modalità di ricerca e pubblicazione dei risultati scientifici”, non sarebbe lecito introdurre alcuna correzione alle mediane precedentemente calcolate. Di conseguenza, in nome della produttività, il SSD β verrebbe azzerato pur essendo più produttivo del SSD γ, recuperato al 50% solo perché più numeroso.

Se non fossero in gioco le carriere di persone in carne ed ossa, verrrebbe da sorridere: la regola ANVUR salva il 50% di un SSD meno produttivo (γ) ed esclude il 100% di un altro SSD più produttivo (β), proprio in nome della produttività.

In ogni caso, che sia vero o no, ipotizziamo che l’eterogeneità dell’indicatore bibliometrico non dipenda dalla produttività degli autori. È allora possibile calcolare anche la mediana viola del SSD β (viola) e rendere sorteggiabili la metà (14 su 28) dei suoi professori. Otteniamo, pertanto, la nuova soluzione riportata nella figura seguente.

Adesso i professori sorteggiabili sono 150 su 200 così ripartiti

  • Totale sorteggiabili: 150 professori su 200
  • SSD α: 100 sortegggiabili (67% dei sorteggiabili)
  • SSD β: 14 sortegggiabili (9%)
  • SSD γ: 36 sortegggiabili (24%)

In questo caso è stata almeno evitata la radicale pulizia etnica del SSD β, ma rimane una ingiustificata predominanza del SSD α che, pur costituendo il 50% di tutto il settore concorsuale, ha però il 67% degli eleggibili. Inoltre, non si capisce perché nei settori concorsuali con una sola mediana gli eleggibili siano il 50% mentre in quelli con più mediane la percentuale dei sorteggiabili debba essere maggiore. Tante mediane tanto onore?

Il maschio-alfa dell’etologia accademica

In un branco, il maschio alfa è il maschio dominante: ha la priorità quando si tratta di cibarsi ed anche nella riproduzione. In questo modo, aumenta la probabilità che i suoi geni vengano trasmessi ai nuovi nati del branco. La sua predominanza è conseguenza della superiorità nella competizione tra i maschi del gruppo.

Consapevolmente o meno, l’ANVUR ha costruito delle regole che assegnano una priorità di riproduzione al SSD α, che rappresenta una specie di maschio alfa del settore concorsuale. Infatti, grazie alla sua superiore prestanza bibliometrica, non solo i suoi professori ordinari hanno maggiore probabilità di essere sorteggiati nella commissione di abilitazione, ma i suoi professori associati si confrontano con una mediana che non è quella blu del SSD α, ma quella nera, più bassa, del settore concorsuale.

Per essere più concreti, ritorniamo al nostro esempio ed immaginiamo che gli indicatori bibliometrici dei professori associati dei tre SSD siano paragonabili a quelli dei rispettivi professori ordinari. Si tratta di un’ipotesi per nulla campata in aria, dato che è proprio ciò che accade per alcuni SSD. Se si  rispettano le specificità dei tre SSD, sarebbe logico usare tre mediane distinte e per ciascun SSD il 50% degli associati supererebbe la mediana per ottenere l’abilitazione.

Le mediane dell’ANVUR, invece, comportano due conseguenze:

  1. Tutti gli ordinari del SSD α sono sorteggiabili.  Solo metà degli ordinari del SSD γ sono sorteggiabili e, se non si ricorre alla deroga, nessuno del SSD β. Pertanto, è probabile che nella commissione di abilitazione il SSD α sia sovrarappresentato rispetto alla sua consistenza numerica nel settore concorsuale
  2. Tutti gli associati del SSD α superano la mediana nera del settore concorsuale e possono essere abilitati, mentre solo il 50% di quelli del SSD γ è abilitabile. Se non si ricorre alla deroga, il SSD β si candida all’estinzione perché nessuno dei suoi associati potrà essere abilitato.

Insomma, le mediane dell’ANVUR configurano un sistema di eugenetica accademica che favorisce la riproduzione del super-SSD bibliometricamente più prestante e l’estinzione dei sub-SSD che non reggono il confronto bibliometrico. Anche la negazione di mediane specifiche ai SSD di dimensione inferiore a 30 è degna di attenzione: le tribù piccole, se non sono dominanti, vengono penalizzate per favorire il rafforzamento della super-razza accademica. Comunque sia, preferiamo non credere che questo raffinato sistema di eugenetica accademica sia stato intenzionalmente progettato dall’ANVUR: si tratterebbe di una deviazione troppo grave dal ruolo tecnico e dalla dovuta imparzialità che dovrebbbero caratterizzare l’operato dell’agenzia. Di certo, è necessario che l’ANVUR corregga la sua Delibera n. 50, eliminandone i risvolti discriminatori.

 

Vi fareste imbiancare la casa da Mr Bean?

Quando non si sa più come replicare a contestazioni specifiche ci si rifugia in qualche proverbio: “Il meglio è nemico del bene”. Altri, con tono più o meno aggressivo, intimeranno: “è vero che i criteri sono balordi, ma voi che alternative proponete?”.

È fin troppo facile rispondere che i criteri proposti dall’ANVUR sono del tutto inediti, privi del conforto sia della scienza bibliometrica che di altre esperienze internazionali. Peggio ancora: sono pieni di ambiguità, falle, contraddizioni e scappatoie discrezionali.

A questo punto, il nostro interlocutore immaginario si appellerà alla situazione di emergenza in cui versa l’accademia italiana, che impone l’adozione di “leggi speciali”, che pur commettendo palesi ingiustizie in qualche caso singolo, siano in grado di bonificare un sistema ormai marcio. L’uso di criteri oggettivi, non aggirabili, come quelli basati sulla bibliometria sarebbe l’amara medicina necessaria a curare il paziente ormai in fin di vita.

Eppure, sono proprio le statistiche bibliometriche a dimostrare che l’università italiana, nonostante i suoi problemi, regge il confronto scientifico internazionale per quantità, qualità e produttività. Insomma, l’università italiana è un paziente che merita un medico competente e aggiornato piuttosto che un guaritore che somministra pozioni dagli ingredienti quanto meno sospetti, i cui dosaggi vengono aggiustati per tentativi sotto gli occhi sempre più preoccupati del paziente. Esigere dal valutatore lo stesso rigore e la stessa eccellenza che egli dichiara di voler promuovere tra i valutati, è una richiesta fin troppo ovvia a chiunque non sia accecato dall’ideologia.

In una delle sue comiche più riuscite, Mr Bean escogita un metodo del tutto inedito per imbiancare il suo soggiorno in modo pressoché istantaneo. L’idea, davvero geniale, consiste nel far esplodere un secchio di pittura dentro la stanza. Può darsi che sia veramente ora di dare una rinfrescata ai muri e che non si possa attendere oltre. Però, rispondete sinceramente: vi fareste imbiancare la casa da Mr. Bean?

 

 

Tags: , , , , , , ,

44 Comments

  1. Per come è presentato, non vedo perché il settore b nell’esempio di cui sopra (I caso, metodi di ricerca non dissimili) dovrebbe poter esprimere commissari: sono pochi e producono tutti poco. Se è così ben venga che questo SSD salti un giro (come commissari).

    Mi sembra che, piuttosto, andrebbe posta l’attenzione sul fatto che le mediane non descrivono la produttività, o meglio solo una di esse lo fa. Le altre due (indice h e citazioni) descrivono la “popolarità”. E’ in questo senso, a parer mio, che bisognerebbe stare attenti alle differenze fra SSD. Ed è qui che SSD più piccoli rischiano di perdere a tavolino contro SSD più grandi. Mi spiego meglio: più che permettere mediane autonome in caso di differenti tecniche di ricerca, occorrerebbe permettere mediane autonome in caso di numeri di citazioni non comparabili (ovviamente dato non semplice da interpretare).

    • Giuseppe De Nicolao says:

      Marc: “non vedo perché il settore b nell’esempio di cui sopra (I caso, metodi di ricerca non dissimili) dovrebbe poter esprimere commissari: sono pochi e producono tutti poco. Se è così ben venga che questo SSD salti un giro (come commissari)”

      Ma allora, per coerenza, dovrebbe saltare un giro anche il SSD gamma, che invece è tutelato solo grazie alla dimensione del suo branco. Il criterio non è coerente nemmeno se si adotta una cruda e cinica visione etologica.

      In realtà, se le statistiche bibliometriche di un *intero* SSD si staccano da quelle di altri SSD del settore concorsuale, il primo pensiero non dovrebbe essere che c’è una razza inferiore da sopprimere, ma, più scientificamente, interrogarsi se e quali differenze strutturali vi sono nel modo di fare e ricerca.

      Vedo un problema culturale nei confronti dei dati bibliometrici che diventano oggetto di feticismo, quasi fossero capaci da soli di dirci il “valore” dei ricercatori o di interi SSD. A parole si discute di normalizzazioni, ma nell’inconscio si pensa che chi scrive di meno o è citato di meno appartiene ai maschi beta oppure omega (sì, in etologia ci sono anche quelli e non se la passano bene). I dati bibliometrici vanno trattati scientificamente per quello che sono: indizi rumorosi della produzione e dell’impatto da interpretare con la stessa cautela con cui si analizza la concentrazione di un farmaco o il volume di un tumore. Chi si occupa per mestiere di analisi dei dati non può che rimanere sbigottito di fronte all’assenza di consapevolezza scientifica di molti sostenitori della “bibliometria dura”(quella utilizzabile in modo automatico per valutare singole pubblicazioni e singoli ricercatori, per intenderci).

    • Fausto di Biase says:

      Concordo con il commento di De Nicolao sul “problema culturale nei confronti dei dati bibliometrici che diventano oggetto di feticismo”. A me sembra che questo “problema culturale” sia piu` ampio perche’ riguarda non solo i dati bibliometrici ma il mondo dei numeri e della quantita’ piu` in generale. Mi sembra di vedere in atto una specie di neo-pitagorismo (il numero come essenza, ecc.).

      Un altro esempio per illustrare questa tendenza in atto. Recentemente il Ministero ha messo in piedi un marchingegno numerologico per “razionalizzare” quella che viene definita “offerta formativa”. Ebbene, questo marchingegno numerologico, tutto basato sul numero dei docenti delle varie materie rapportato al numero di studenti, questo marchingegno, dicevo, NON e` stato in grado di eliminare certe discutibili duplicazioni nella offerta formativa di alcuni atenei (duplicazioni macroscopiche che si vedono a occhio nudo senza fare tanti calcoli). Risultato: le duplicazioni discutibili sono rimaste, mentre sono state eliminate quelle diversificazioni che avevano un preciso senso culturale e che avevano avuto successo proprio sul piano culturale.

  2. L’errore fondamentale, a mio modo di vedere, è quello di volere “portare il merito” dall’esterno. Allora -sempre fatta salva la buonafede dei proponenti- ci si affida a meccanismi che dovrebbero risolvere il problema automaticamente. E, si sa, il carattere di molti italiani è fondamentalmente credulone, sennò non si spiegherebbe, tanto per dirne una, l’inestirpabilità di tante distorsioni, tutte nostrane, del sistema informativo. Ma, chiaramente, non se ne caverà un ragno dal buco. Il merito lo si conquista attraverso percorsi lunghi e oculati, che passano per una vera internazionalizzazione del sistema, per una sua percezione positiva, per il riconoscimento del valore della cultura. Affidarsi alle mediane di chi neanche riesce a darsi gli strumenti giusti per calcolarle mi sembra davvero il gran finale di una comica di Mr. Bean…

  3. Non è semplice feticismo, ma mi sembra coprofilia. Tuttavia, non mi sembra che nel recente passato ci siano state degli indirizzi tali in modo da migliorare le strutture, i fondi, la meritocrazia, la competizione, i buoni salari e così via, per fare una buona università.
    E siccome dai diamanti non nasce niente … speriamo che almeno dai parametri bibliometrici nascan dei fior .. per parafrasare il famoso cantautore.

  4. Varie persone sono contente che si usino citeri bibliometrici, ed io sono tra queste.

    Provocazione: altro che mediana, ci vorrebbe un filtro a 3/4.
    Con downgrading di quelli che sono sotto.

    • Giuseppe De Nicolao says:

      Certo, sembra un’ottima idea, magari misurando chi sta sotto con l’indice di Katsaros i cui valori, calcolati su due database distinti, non sono significativamente correlati (http://www.roars.it/online/?p=9966). A parte gli scherzi e i commenti in libertà, c’è una vasta letteratura che giudica impraticabile l’uso degli indicatori bibliometrici per valutazioni individuali.

      L’idea del downgrading dei 3/4 dei docenti è provocazione senza grande fondamento. Infatti, trascura il fatto che la ricerca universitaria italiana, misurata proprio dalla bibliometria, si colloca bene a livello internazionale: in termini di articoli e citazioni la produttività italiana (rispetto alla spesa) è migliore di Germania, Francia, Canada, USA e Giappone (http://www.roars.it/online/?p=8305).

      Il commento di Lusa è a suo modo istruttivo perché mette in evidenza un aspetto ricorrente. Molti pensano che lavorare nel sistema universitario o nel mondo della ricerca li metta automaticamente in grado di formulare giudizi sensati sulla bibliometria e le tecniche di valutazione, un po’ come chi pensa di saper fare il ct della nazionale senza avere competenza specifiche. In realtà esiste una scienza bibliometrica ed anche la letteratura sulla valutazione è ormai vasta ed approfondita. Il più delle volte, chi dice la prima cosa che gli passa per la testa non va oltre le chiacchiere da bar (rispettabili, ma non molto utili, se non ad ammazzare il tempo).

    • Dai, non esageriamo. Lusa ha scritto ESPLICITAMENTE che la sua era una provocazione. Che probabilmente significa che, al di là degli errori della bibliometria individuale, la realtà è che in Italia ci sono un mucchio di docenti che fanno 0 ricerca da anni (se non da sempre)! Senza per questo ricevere almeno carichi didattici maggiori, come avviene in altri Paesi.

    • Francesco Sylos Labini says:

      Bene: ora le ci dice le fonti secondo cui “la realtà è che in Italia ci sono un mucchio di docenti che fanno 0 ricerca da anni (se non da sempre)!”. Aspettiamo.

    • Questa passione dei blogger di Roars per le fonti è curiosa. La prima risposta che mi verrebbe è “basta farsi un giro in una qualunque università italiana”. Comunque basterebbe anche solo verificare quanti (non quali, naturalmente, né in quale università) alla recente VQR hanno presentato 0 lavori.

    • Francesco Sylos Labini says:

      La sua riposta, Marc, mostra come sia importante la differenza tra scienza e superstizione. I dati e le fonti sono alla base di un ragionamento scientifico. Le suggestioni sono alla base della superstizione e seguendole si cade in balia dei ciarlatani.

    • Giuseppe De Nicolao says:

      Sì, qualcuno diceva che fossero il 30%. Peccato che usasse dati del tutto inaffidabili (http://www.roars.it/online/?p=8305).

    • Giuseppe De Nicolao says:

      Marc: “Comunque basterebbe anche solo verificare quanti (non quali, naturalmente, né in quale università) alla recente VQR hanno presentato 0 lavori”

      Risposta:

      “La percentuale media sulle aree di prodotti mancanti è del 5,3%, un dato che testimonia un’attività buona dei docenti e ricercatori e un’attenzione delle strutture nel soddisfare i requisiti del bando … con percentuali di prodotti mancanti che vanno da un minimo del 2,6% ad un massimo del 10,2%.”

      Sergio Benedetto e Alessio Ancaiani, “Statistiche sui prodotti conferiti e commenti preliminari”
      http://www.anvur.org/?q=it/content/statistiche-e-commenti-preliminari-sui-prodotti

      P.S. Marc: “Questa passione dei blogger di Roars per le fonti è curiosa.”: senza alcuna polemica, credo che l’attenzione per le fonti sia un ingrediente essenziale di ogni analisi scientifica. Soprattutto quando si dibatte di argomenti che hanno risvolti sociali, ci vuole poco (anche in buona fede) a scambiare per dati di fatto quelli che sono magari pregiudizi personali. Cercare di ancorare discorsi ed analisi a dati, per quanto possibile affidabili, è un modo per impostare discussioni più costruttive. Io non sottoscriverei mai una frase del tipo “in Italia ci sono un mucchio di docenti che fanno 0 ricerca da anni” perché non si capisce cosa sia “un mucchio”. Il dato della VQR dice che, nella peggiore delle ipotesi, i docenti che non hanno presentato nulla alla VQR sono il 5,3% (se qualcuno ha presentato 1 o 2 lavori su 3, quelli a quota 0 sono ancora di meno). Questo è un numero a partire dal quale si può cominciare a ragionare: pochi? troppi? dove? perché?

    • Spalmare il 5% su tutte le aree contribuisce a rendere meno visibili gli inattivi perché ci sono aree in cui la produttività è numericamente più elevata (3 articoli in 6 anni sono una quantità bassissima, pressoché trascurabile). Se invece osserviamo le aree con le punte maggiori di inattività (in cui possiamo quindi supporre che 3 articoli in 6 anni sia un requisito adatto per non considerare inattivo un docente), otteniamo un’area al 17% ed una al 20%. E 15-20 % è un numero rilevante in assenza di un sistema di compensazione con maggiori oneri didattici. Se poi definissimo “non sufficientemente attivi” tutti coloro che hanno presentato anche 1 o 2 lavori in 6 anni, tale percentuale aumenterebbe ancora (analogamente al ragionamento che giustamente evidenzia come la percentuale di chi presenta 0 lavori è inferiore alla percentuale di lavori mancanti). Immaginando (ma questa è una congettura azzardata) che siano equidistribuiti coloro che presentano 0, 1 o 2 articoli, arriveremmo ad una percentuale di “non sufficientemente attivi” pari a ben il 22-30%. Cui, per amore di sintesi, ci si può riferire colloquialmente con “un mucchio che fa 0 ricerca”. Ovviamente il mio scopo non è essere polemico, ma portare l’attenzione sul fatto che l’interpretazione dei dati è più importante dei dati stessi. Personalmente ritengo che le fonti siano importanti, ma il dialogo e la discussione lo siano altrettanto. Soprattutto nei commenti al post di un blog.

    • In realtà ogni università conosce i propri inattivi. Anche la mia scommessa è la (quasi) equidistribuzione degli inattivi. La stima 22-30% è troppo elevata. I dati che conosco io dicono 10-15% (persone che non hanno scritto un lavoro in un trienno). Abramo et. al. in un recente articolo su Scientometrics hanno stimato, ma vado a memoria -nn ho modo di controllare ora-, per le aree 1-9 un 17% di persone che non ha pubblicato alcun lavoro su WoS nel periodo della VQR.

    • Giuseppe De Nicolao says:

      Marc: “Spalmare il 5% su tutte le aree contribuisce a rendere meno visibili gli inattivi … otteniamo un’area al 17% ed una al 20%.”

      Il documento ANVUR non solo fornisce la media, ma specifica anche che le percentuali di prodotti mancanti

      “vanno da un minimo del 2,6% ad un massimo del 10,2%.”

      Marc ha chiesto di “verificare quanti … alla recente VQR hanno presentato 0 lavori”. La risposta dell’ANVUR è che tale percentuale è inferiore al 5,3% in media ed inferiore al 10,2% per tutte le aree.

  5. vladimir72 says:

    Io sono tra quelli che approvano senza dubbio l’utilizzo di criteri bibliometrici. Pur essendo consapevole dei limiti, è veramente necessario introdurre dei criteri oggettivi. Il nuovo sistema ha due problemi però, uno specifico ai criteri bibliometrici ed uno di carattere generale:
    1) c’è una questione “etica” che prescinde da ogni criterio e che andrebbe affrontata. Da quando c’è odore di mediane e criteri bibliometrici stringenti si è scatenata la corsa, con strumenti sovente inaccettabili, all’incremento dei parametri. Ci sono quindi “cordate” di pubblicazione e addirittura di citazione reciproca. Vedo persone che negli ultimi 12-18 mesi hanno pubblicato oltre 100 articoli. Questi oltre ad avere i propri parametri “dopati” in maniera illecita, inquinano anche le mediane di tutto il settore. Ci vorrebbe quindi anche un controllo sull’authorship che da nessuna altra parte come in Italia, non riflette in una grande percentuale dei casi il contributo del ricercatore/professore in questione. Perchè non si prende in considerazione il numero di autori e soprattutto la posizione del nome come si fa a livello internazionale. Arriveremo a questo fra dieci anni, sempre in ritardo, visto l’insuccesso dl nuovo sistema?
    2) il sistema non attribuisce sufficiente responsabilità a chi partecipa al reclutamento. Andrebbe pure bene l’abilitazione vista com una sorta di “patente” di guida accademica, ma poi cosa succede? Ci vorrebbe un sistema che garantisca dei controlli post-reclutamento che dopo tre/cinque anni vadano a punire che ha reclutato le persone sbagliate ed improduttive.
    Saluti,
    Vladimir

  6. In Italia è da anni, se non da sempre che non funziona il controllo ex-ante ne tantomeno quello ex-post (fonte? guardare gli idonei locali in rapporto agli altri candidati ed il rapporto produttività/FFO delle università, per esempio).
    A questo punto speriamo che dalla “bibliometria” nascano i fiori (sempre per parafrasare il cantautore). Sarà un commento da bar, ma un forum è anche questo, in modo che “gli esperti” prendano coscienza degli umori della gente comune. Se poi volete il parere di soli esperti mettete su un servizio di peer-review prima di pubblicare il parere di qualcuno. Nelle provocazioni c’è sempre una fonte di verità. La provocazione per eccellenza è: “chi è senza peccati scagli la prima pietra”.

    • Giuseppe De Nicolao says:

      Paolo: “fonte? guardare gli idonei locali in rapporto agli altri candidati ed il rapporto produttività/FFO delle università, per esempio”

      Credo che ci siano pochi o nessun difensore del precedente sistema di concorsi locali, che sono stati fonte di diverse ingiustizie. Credo anche che fossero mal congegnati in partenza. Se da un lato regole non hanno il potere di rendere virtuose le comunità, dall’altro alcune regole sembrano fatte apposta per favorire le degenerazioni. Invocare strumenti che non hanno il conforto del sostegno scientifico e delle esperienze internazionali non sembra una buona idea. Se sono malato, vado dal medico, non dal guaritore. Che poi l’università italiana, per quanto piena di problemi, sia moribonda è un luogo comune che non trova riscontro nei dati, per esempio quelli bibliometrici.

      Infatti, per quanto riguarda il rapporto produttività/FFO, i dati che conosco e che ho riportato in un precedente articolo (Quanta ricerca produce l’università italiana? Italia: risposta a Bisin. http://www.roars.it/online/?p=8305) mostramo che la produttività dell’università italiana (misurata in termini di articoli/euro oppure citazioni/euro) è superiore a quella di USA, Germania, Francia, Canada e Giappone.

  7. Giuseppe: “la produttività dell’università italiana (misurata in termini di articoli/euro oppure citazioni/euro) è superiore a quella di USA, Germania, Francia, Canada e Giappone.” E’ vero ma è un termine quantitativo e globale. “Ti piace u presepe”? avrebbe chiesto il padre al figlio nella famosa commedia. Un parametro quantitativo può essere valido per valutare una struttura? chiedo io ora a te? La struttura è fatta di persone che contribuiscono alla quantità oltre che alla qualità. Ad ogni modo la classifica che citi è globale non fa distinzione fra le varie università italiane (Eccellenti, Ottime, buone e appena suffcinti …. forse scarse ancora non ce ne sono … forse e ancora per poco … forse). Con stima e simpatia Paolo

    • Giuseppe De Nicolao says:

      Paolo: “Ad ogni modo la classifica che citi è globale non fa distinzione fra le varie università italiane”

      SCimago (http://scimagoir.com/methodology.php?page=indicators) fornisce una classifica degli atenei basata sul cosiddetto Normalized Impact (http://scimagoir.com/methodology.php?page=indicators)

      Nella classifica di SCImago ritroviamo 3 istituti speciali e 55 università statali, di cui una sola ha un impatto normalizzato inferiore alla media mondiale [l' Univ. del Molise]. Ciò significa che, una volta normalizzati gli effetti della dimensione e dei temi di ricerca, l’impatto degli atenei statali italiani sulla comunità scientifica è praticamente sempre superiore alla media mondiale. Le uniche tre università statali che non entrano in classifica sono l’Orientale di Napoli, l’Università del Foro Italico di Roma e lo IUAV di Venezia, le cui dimensioni o i cui settori di ricerca giustificano la mancata inclusione in una classifica bibliometrica (vedi anche http://www.roars.it/online/?p=4391)

  8. StefanoL says:

    1) Chi “contribuisce” a un forum solo con delle provocazioni è, per definizione, un troll.

    2) ROARS ha già mostrato esaustivamente (con le fonti, non con editoriali sul Corriere della Sera) che le fole sul pessimo livello della nostra università sono, appunto, fole. Chi voglia rimanerne convinto è, per fortuna di tutti, liberissimo di farlo; per rifischiare queste bugie sarebbe meglio trovare altri lidi.

    3) Venendo a cose più costruttive, un giovinetto 40enne (almeno a leggere il nick) scopre che c’è gente molto più forte di lui nel “numbers game”: ben svegliato. Tutto il meccanismo della conta di articoli/citazioni è disegnato su grandi gruppi di ricerca (non è un caso che in ANVUR si siano opportunamente scordati di considerare il numero di autori degli articoli), con molti dottorandi e, aggiungerei io, buoni agganci editoriali. L’utente ‘marc66′ aveva già lucidamente evidenziato diversi di questi aspetti nei commenti a un altro post.

    4) Per un altro tocco di costruttività, segnalo un’esperienza personale. A darmi qualche speranza nel conto delle citazioni sono alcuni articoli su un tema all’epoca di moda, che hanno appunto avuto un buon “successo”, senza dire nulla che valesse la pena di essere ricordato. Trovo la cosa sinceramente grottesca.
    Eppure qualcuno pensa che avere un h-index più alto significhi automaticamente essere “più bravo”.

    Ma se ricominciassimo a leggerli questi articoli, anziché contarli e scambiarli come le figurine Panini del bel tempo che fu?

    • vladimir72 says:

      non capisco se la definizione di “giovinetto quarantenne” sia da ritenersi offensiva o meno. Quarantenne si, giovinetto non mi ritengo più da un pezzo. Francamente non scopro affatto di non essere forte nel “numbers game”. Dove lavoro questi numeri sono importanti da un decennio. Non riesco a capire come mi colloco rispetto a queste mediane italiane perché non ho idea di quali siano i valori, attendo con molta curiosità i numeri anvur.
      Quello che però volevo dire, e a cui non si è risposto, è che il “numbers game” è uno schifo e rappresenta un problema etico tutto italiano. Il fatto che grandi gruppi di ricerca (italiani) si mettano d’accordo per mettersi reciprocamente i nomi sui lavori e citarsi a vicenda è una violazione aperta di tutte le guidelines for authorship. Che poi in Italia a nessuno gliene freghi nulla di tali guidelines è un altro paio di maniche. Quando parlo con i miei colleghi italiani ho la netta sensazione che gli interessi la pubblicazione molto di più della ricerca che stanno facendo. Per cui quando vedo un associato che nell’ultimo anno mezzo ha pubblicato cento articoli di cui, più della metà, non ha nemmeno mai letto, non è che “mi sveglio”, mi “indigno”, che è un po’ diverso.

    • StefanoL says:

      Riguardo il numero di autori, rivolgersi all’Anvur. Avevo detto proprio questo.

      Per il resto, spero che qualcuno risponda educatamente alle tue affermazioni, così “sweeping”, sull’etica dell’authorship italiana vs. estera, per non dire dell’impagabile perla delle diverse priorità: scienza (ovviamente tu) vs. pubblicazione (loro cioè noi).

      Mi limito a constatare che la storia del “numbers game” non nasce certo in Italia né si riferisce a malversazioni specificamente italiane, bensì ad un intero sistema, quello dei numeretti: nello specifico lo IF, ma l’H-index è next door to.

  9. Non mi sembra che ne io ne Vladimir72 siamo dei troll; se facciamo delle provocazione è con spirito costruttivo. Troll è chi partecipa a un forum solo con delle provocazioni irritanti, fuori tema o senza senso e con il solo obiettivo di disturbare la comunicazione.
    Nessuno ha detto, almeno io non l’ho detto, che le nostre università hanno un pessimo livello. Io ho detto che ce ne sono di “Eccellenti, Ottime, buone e appena sufficienti”. Per il momento. Ma sono molto preoccupato per il futuro. L’anno scorso nel mio laboratorio avevo 12 collaboratori precari. Quest’anno sono 6. …. e come potete immaginare non sono dimezzati perchè assunti…. Se continua così addio Università di qualità

  10. Pingback: Abilitazioni: le mediane di Mr. Bean « ricercatoripolito

  11. Diversi fisici pensano che si possano trovare equazioni che descrivono tutto. Non mi sembra percio’ cosi strano che questi ritengano che pochi numeri possano essere sufficienti per caratterizzare la qualita’ scientifica di una persona. Non a caso Jorge Hirsch e’ un fisico teorico della materia condensata.

    Capisco che molti non fisici, ed anche diversi fisici, possano avere dfficolta’ a pensare allo stesso modo.

    Dato che il presidente dell’ANVUR e’ proprio un fisico teorico nucleare,
    non c’e’ da stupirsi dei criteri utilizzati.

    A me sembra che su ROARS ci siano giudizi troppo severi su ANVUR e MIUR.

    • Mario Ricciardi says:

      Tutto? Intendi tutto il mondo fisico o proprio tutto? In attesa dell’equazione che descriva un quadro di Caravaggio, e magari di uno dei fisici che hai in mente che ce la spieghi in modo da mostrare perché sarebbe bello, vado a fare una passeggiata.

    • Francesco Sylos Labini says:

      Le consiglio di leggere Intelligenza e Pregiudizio di S.J. Gould che spiega in che senso i numeri sono utilizzati in maniera impropria. Inoltre confondere una scienza sociale con una scienza esatta non contribuisce certo a fare chiarezza.

    • Sigh, e abbiamo anche fatto un PRIN (bocciato) insieme.

    • Francesco Sylos Labini says:

      Ah ecco.

  12. “E’ molto attivo, pubblica molto ma, forse proprio per questo, non ci sono risultati scientifici significativi.”

    Questa era la frase tipica con la quale nel passato venivo eliminato.

    Poi sono arrivati ISI e h-index. Non hanno potuto piu’ scrivere la fatidica frase e la mia carriera e’ cambiata in molto meglio.

    E con in mio cognome non ci sono e non ci sono mai stati altri prof. univ. in Italia.

    • Tenderei a distinguere tra un uso intelligente di indicatori bibliometrici da parte delle commissioni -quello che ha cambiato la sua situazione accademica-, e l’uso che l’anvur ne fa nel VQR e nelle prossime abilitazioni.
      L’uso corretto è quando la bibliometria entra in un giudizio informato dei pari; che la bibliometria e l’h-index misurino correttamente la qualità della ricerca e permettano di fare classifiche oggettive di ricercatori e quant’altro, è, come dire, superstizione, o ideologia.

    • Oh mamma.

      Settore concorsuale X

      Candidato 1: 10 pubblicazioni ISI con totale 30 citazioni,
      nessuna pubblicazione a singolo autore, tutti lavori con 3 o piu’ autori.

      Candidato 2: 10 pubblicazioni ISI con totale di 3000 citazioni,
      con 4 pubblicazioni a singolo autore, con 2 lavori a singolo autore con piu’ di 100 citazioni l’uno.

      E’ difficile capire chi e’ meglio?
      Per me e’ palese.
      Solo quelli di ambito umanistico, o i parenti (reali o accademici) del candidato 1, possono avere dubbi.

    • Appunto: anche per me è palese chi è meglio. Ma le informazioni bibliometriche sono molte e articolate.
      Provo, con qualche licenza, a simulare i criteri ANVUR su questo esempio:

      Settore X
      MEDIANA del Settore X h=3

      Candidato 1: 10 pubblicazioni ISI
      informazione irrilevante nelle procedure abilitazione:[con totale 30 citazioni]
      informazione irrilevante nelle procedure abilitazione: [nessuna pubblicazione a singolo autore, tutti lavori con 3 o piu’ autori]
      h=3 [3 articoli con 10 citazioni ciascuno, 7 con zero citazioni]

      Candidato 2: 10 pubblicazioni ISI
      informazione irrilevante nelle procedure abilitazione:[con totale di 3000 citazioni]
      Informazione irrilevante nelle procedure ANVUR: [con 4 pubblicazioni a singolo autore, con 2 lavori a singolo autore con piu’ di 100 citazioni l’uno]
      h=2 [2 articoli con 1500 citazioni ciascuno, 8 con 0 citazioni]

      Il candidato 2 non supera il criterio.
      Potrà però essere felice di aver partecipato attivamente al processo di miglioramento dell’università italiana …

    • Per l’abilitazione ci sono 3 mediane, e 2 da superare, per le aree da 1 a 9.

      1) Number of ISI-indexed papers in the last 10 years
      2) ISI citations per active year
      3) Contemporary h-index

      Supponiamo che le 3 mediane siano:
      M_1 = 9
      M_2 = 100
      M_3 = 3
      e che i due candidati abbiano 10 anni di attivita’
      dalla prima pubblicazione.

      Sicuramente entrambi superano la M_1.
      Sicuramente il candidato 1 non supera M_2 mentre il candidato 2 la supera.

      Siamo gia’ 2 a 1 per il secondo candidato.
      Il quale gia’ soddisfa i criteri minimi.

      Per la M_3 la cosa e’ piu’ complicata, perche’ bisogna guardare le pubblicazioni dei singoli articoli per definire il valore citazionale di ognuno di essi e poi calcolare il contemporary h-index.

      Nello specifico, cioe’ se il candidato 2 ha solo 2 pubblicazioni con 1500 citazioni l’una, ed entrambe sono negli ultimi 10 anni, il contemporary h-index
      del candidato 2 e’ solo 2.
      Per il candidato 1 non si puo’ dire, con i dati disponibili.

    • Supponiamo invece che le 3 mediane siano
      M_1>11
      M_2<30
      M3=3
      Che il candidato 1 abbia un anno di attività accademica, ed il candidato 2 10 anni di attività accademica.

      M_1 non è superata da nessuno
      M_2 è superata da entrambi
      M_3 è superata solo dal candidato 1.

      Il candidato 1 passa. Il candidato 2 no.

      Ma ho cambiato le ipotesi e soprattutto inserito nuova informazione. Possiamo continuare così per un altro bel po’ volendo, ma non approdiamo da nessuna parte.

      Il mio esempio precedente non voleva essere *realistico*. Serviva ad illustrare -forse impropriamente- un punto che scrivo da mesi: l’uso dell’h-index e suoi derivati per selezioni automatiche di candidati non ha fondamento scientifico. Gli ordinamenti che si ricavano dall’h-index sono illusioni ottiche. Una ragionevole caratterizzazione statistica della distribuzione delle citazioni mostra che la capacità di ordinamento dell’h-index è assai modesta http://arxiv.org/abs/1205.4418.

      Credo che sarebbe stato preferibile da molti punti di vista, non ultimo il minore contenzioso giudiziario, operare in altro modo. Provo a scriverlo:
      1. Introdurre una soglia minima di produttività (lasciando da parte le citazioni) come condizione per far parte delle commissioni. [Alcuni esercizi svolti per gli economisti mostrano che l'adozione delle soglie indicate dal CUN (calcolate su una database bibliografico internazionale) sono molto più restrittive del criterio della mediana. http://mpra.ub.uni-muenchen.de/38872/ ]
      2. Le commissioni sono informate delle performance citazionali dei candidati (numero di pubblicazioni, IF, H-index o qualsiasi cosa si ritenesse opportuna); i dati citazionali dei candidati sono resi pubblici;
      3. le commissioni fanno il loro lavoro, usando come ritengono tutte le informazioni a loro disposizione, e decidono gli abilitati.
      Trasparenza e responsabilità.

      Siamo invece al balletto delle mediane ed ai giochi di prestigio (l’età accademica che diventa h-contemporaneo etc.etc.). Dall’arbitrio baronale all’arbitrio di chi definisce soglie, indicatori e quant’altro. Senza nessuna trasparenza e senza nessuna responsabilità.

    • Come si chiama chi manipola i dati per giustificare le proprie tesi?

    • Giuseppe De Nicolao says:

      Non vedo manipolazioni per la seguente ragione. Alberto Baccini ha illustrato, mediante un controesempio, i paradossi delle classifiche basate sull’h-index. Lusa ha osservato che con le regole ANVUR (che richiedono di superare 2 mediane su 3) il controesempio non avrebbe prodotto un risultato paradossale. A quel punto Baccini ha mostrato che non era difficile trovare un controesempio paradossale anche tenendo conto della regola 2-su-3 dell’ANVUR, spiegando che il problema alla radice è sempre lo stesso (l’h-index non è adatto a produrre selezioni automatiche).

      Infine, Baccini ha anche suggerito come inserire dei vincoli quantitativi senza cadere nelle difficoltà in cui si dibatte l’ANVUR, testimoniate (aggiungo io) dal tentativo di cambiare le regole in corsa (indice-h contemporaneo al posto di indice-h di Hirsch normalizzato per l’età).

      Mi sembra che Baccini abbia argomentato in modo chiaro e onesto le sue tesi, da cui si può ovviamente dissentire, entrando però nel merito delle questioni.

    • Francesco Sylos Labini says:

      E quali dati i suoi ????

  13. Credo che il punto delicato sia proprio quello toccato da Baccini: è vero che la bibliometria è solo uno fra i tanti ingredienti che dovrebbero far parte di una buona peer review. Ma è anche vero che la comunità accademica italiana ha toccato un punto talmente basso di fiducia reciproca che molti candidati (specialmente fra i giovani) non si aspettano di ricevere un “giudizio informato” quando si riuniscono le commissioni. Perciò preferiscono un gioco un po’ più trasparente anche se basato su regole opinabili, piuttosto che la totale mancanza di trasparenza degli attuali concorsi. Forse i colleghi che sono stati commissari e che conoscono l’accademia più a fondo non hanno una percezione adeguata di questo problema.
    Ne approfitto per aprire una questione della quale nessuno sembra interessato: pensate che l’attuale sistema delle abilitazioni aprirà un po’ di più l’accademia italiana ai candidati provenienti dall’estero? O sembrerà ancora più barocco e impenetrabile per gli outsiders? Che cosa si può fare per migliorare le cose? Non sarebbe il caso di incoraggiare le società scientifiche a fare di pubblicità sui siti e le newsletters internazionali per incoraggiare almeno i nostri espatriati a partecipare alle selezioni? Ci lamentiamo sempre che escono più cervelli di quanti ne entrino, ma poi non facciamo nulla per incoraggiarli. Anche solo lanciare un segnale di apertura e di buona volontà secondo me aiuterebbe…

  14. Mario Ricciardi says:

    Caro Francesco,

    per me sfondi una porta aperta. Quando la Gelmini fu nominata ministro scrissi sul “Riformista” (l’articolo dovrebbe essere nell’archivio di roars) che una delle cose da fare era rendere le procedure per il reclutamento più simili a quelle britanniche, con un’adeguata pubblicità dei bandi nelle sedi internazionali di uso comune (tipo Thes, ce ne sono di analoghe negli US, mi pare). Le cose sono andate diversamente, e le idoneità che stanno partendo non segnano da questo punto di vista un’inversione di tendenza. Per una persona che lavori all’estero i testi rilevanti sono incomprensibili, e anche per un italiano non abituato al gergo dei burocrati richiedono qualche sforzo. Inoltre il reperimento delle informazioni risulta irragionevolmente oneroso (te li immagini tu i nostri colleghi stranieri che consultano il sito del Miur, quelli delle singole Università o la Gazzetta ufficiale?).

    • Ho visto che il ministero ha creato un sito web dedicato alle abilitazioni: la versione italiana è abbastanza in linea con quanto dici; la versione inglese non c’è ancora, e chissà che cosa partoriranno… Ma proprio per questo credo che le società scientifiche possano aiutare, magari fornendo delle piccole guide non-burocratiche alle procedure. E comunque soltanto l’inserzione è già un segnale potentissimo, specie nelle discipline tradizionalmente più “chiuse” o percepite come tali (in quanto ex-espatriato so per esperienza che il gap fra percezione e realtà è spesso molto ampio.) Nel mio settore ho già proposto questa iniziativa alla SILFS, altri potrebbero fare lo stesso nelle loro aree.

  15. I dati devono essere realistici.
    Trovo irritante chi fa esempi con dati palesemente inventati per difendere una tesi personale o di gruppo.

    Facciamo un esempio realistico:

    AA sta a Roma, e’ parente di, e fa parte di;
    BB non sta a Roma, non e’ parente di, e non fa parte.
    I due si sono laureati e addottorati nello stessa disciplina e nello stesso anno in universita’ italiane diverse. I due si occupano di tematiche che appartengono allo stesso SC.

    Parametri di AA
    lavori negli ultimi 10 anni: 40
    citazioni/(eta’ accademica): 876/(2013-1994) = 46.10
    h-index/(eta’ accademica): 17/(2013-1994) = 0.89

    Parametri di BB
    lavori negli ultimi 10 anni: 76
    citazioni/(eta’ accademica): 2174/(2013-1992) = 103.52
    h-index/(eta’ accademica): 26/(2013 – 1992) = 1.24

    Chi e’ meglio?

    Ed infatti anche tutti gli altri dati bibliometrici
    (lavoro piu’ citato, lavori a singolo autore, numero medio di autori per lavoro) confermano questo.

    Purtroppo AA e’ molto ben introdotto e voce autorevole in think-tank “riformisti”, mentre BB no.

    Chi avra’ il posto?

Leave a Reply