L’ingegno umano non si ferma davanti a nulla. Per esempio, presto i medici emetteranno diagnosi non sulla base di sintomi o analisi, bensì contando scrupolosamente, con apposita strumentazione, i peli sotto le ascelle del paziente. E ogni biologo marino potrà scoprire nel fondo degli oceani sconosciute specie ittiche misurando la velocità di caduta del mangime nell’acquario di casa (incrociata, si capisce, con coefficienti numerici di appositi prontuari). Fantasie? Per ora sì. Ma è più o meno quel che succede in un ambito dello scibile umano, le (maiuscole indispensabili) Procedure Di Valutazione Della Ricerca. Una fetta irragionevolmente alta del tempo di chi fa ricerca (medici e biologi, ma anche archeologi e matematici) va perduto nel misurare se stessi o altri in relazione a svariate competizioni per Qualcosa (che sia una cattedra, un premio, una carica accademica, un finanziamento) mediante indici numerici dedotti dalla mera superficie delle cose. Per esempio contando quante volte il professor X viene citato, e non come viene citato, né perché mai lo sia: donde il vivace traffico delle citazioni di scambio. Sfuma nelle nebbie, poi, che cosa venga citato; se e quanto fosse essenziale citarlo, in base alla novità, importanza, dimostrabilità, solidità di quel che il prof. X ha scritto. Basta che venga citato perché crescano gli indici sulla cui base sarà valutato. Tale colossale sciocchezza, ammantandosi di scienza, ha perfino un nome: bibliometria. Traduzione: giudicare un lavoro scientifico senza leggerlo, più o meno come il leggendario mandarino cinese che giudicava i libri dall’odore che fanno, bruciando.

Ma la peste della superficialità valutazionistica, il più capillare mercato di fake news del pianeta, non si ferma qui. Infatti, nella stanza accanto a quella del prof. X troveremo, intento non a studiare ma a spaccare il capello degli indici di valutazione propri e altrui, il prof. Y, suo collega di Facoltà, di dipartimento o d’istituto. X e Y rivaleggiano in tutto, eppure sanno che il loro dipartimento (o Facoltà, o istituto) verrà valutato sulla base di indici che mettono insieme non solo X e Y ma anche lo stolto Z e il notorio cretino W: ma a tutti conviene che tali colleghi, pur universalmente ritenuti imbecilli, abbiano comunque indici numerici che, sommati a quelli dei colleghi che sono (o si ritengono) geniali, consenta all’istituto (o dipartimento, o Facoltà) di accedere a un qualche finanziamento, di quelli che i governi bandiscono etichettandoli invano con l’abusatissima parola “eccellenza”. E quanti fra i comuni mortali sanno che occhiute conventicole di studiosi, nominate da prestigiosi (?) ministri, si affannano non a produrre nuovi risultati nelle proprie discipline, bensì a classificare le riviste del settore in prima, seconda o terza fascia: ingegnoso artifizio, che serve a “giudicare” un articolo non sulla base di quel che vi è scritto (bisognerebbe leggerlo), ma sulla base della “fascia” di appartenenza della rivista in cui è stato pubblicato. E per diventare professore bisogna superare le forche caudine di un concorso in cui nulla vale quel che si è scritto, ma solo se un prefissato numero di articoli abbia superato o meno la “soglia” (puramente quantitativa) di lavori pubblicati in “fascia A”. Veglia su tali ipocrite aberrazioni una sontuosa (in senso etimologico, da sumptus, spesa) Agenzia di governo, intenta a costruire dal nulla i propri principi imperscrutabili.

Nessuno creda che quanto sopra sia anche minimamente esagerato: le cose, anzi, stanno ancor peggio. Ma nessuno creda nemmeno che tali perversioni siano proprie dell’Italia: il nostro Paese ci è arrivato anzi tardi e male, scopiazzando altri (come il Regno Unito) in nome di una retorica della Valutazione secondo cui essa segna l’alba di una nuova età, dopo i secoli bui in cui nessuno valutava né veniva valutato. Infatti, mai e poi mai Aristotele valutò qualcun altro in termini numerici (non aveva i parametri dell’Agenzia, poverino) : donde il suo ben noto insuccesso). Per non dire di Galileo, che non fu mai valutato secondo bibliometria, ergo sarà stato un mediocre. Verità di fede, per chi sia in preda alla febbre da Valutazione. Un morbo che, al pari di altre forme di burocratizzazione della vita universitaria come il continuo balletto di etichette fra Facoltà, Dipartimenti, Istituti, riduce il tempo per pensare, leggere o sperimentare idee, per far ricerca di prima mano, insomma, e senza essere posseduti dall’ossessione valutativa.

Ma se di fronte a tale indemoniata ossessione diciamo “il re è nudo”, corre l’obbligo di spiegare perché. E la risposta è questa: perché è più comodo valutare secondo numeri, parametri, impact factor, H-index e altre pittoresche sciocchezze piuttosto che perder tempo a leggere uno per uno i testi di X, Y, W e Z, prendendosi la responsabilità di giudicare che cosa c’è di buono (o meno buono), entrando nel merito per poter argomentare, comparativamente, se è meglio Y o X. Col rischio, certo, di sbagliare. Ma con le correnti Procedure Di Valutazione c’è l’assoluta certezza di sbagliare, e per giunta l’obbligo, che richiede una buona dose di cecità intellettuale, di credere, sul serio o per mero conformismo di casta, che giudicare senza leggere, in base a indici numerici e “soglie” immaginarie, costituisca la sola Verità certificata.

Le Procedure Di Valutazione correnti comportano due vantaggi e due svantaggi. Vantaggi: (1) non si perde tempo a leggere i lavori scientifici da valutare, tanto ci pensano i numerini; (2) si evita di assumere una responsabilità personale (soggettiva), perché i numerini sono “obiettivi”. Svantaggi: (1) per esser sicuri di esser citati, molti evitano le ricerche d’avanguardia, che comportano un alto rischio; trionfa così la ricerca main stream, e con essa la morte dell’immaginazione scientifica e dell’innovazione; (2) la scienza, la probità scientifica, il senso critico vanno a farsi friggere, e si dedicano al frivolo esercizio della Valutazione energie e tempo che dovrebbero essere investiti in insegnamento e in ricerca.

Lo svizzero Richard R. Ernst, premio Nobel per la chimica, ha scritto: «Lasciatemi esprimere un desiderio supremo, che coltivo da tempo: spedire tutte le procedure bibliometriche e i loro diligenti servitori nel più oscuro e onnivoro buco nero di tutto l’universo, onde liberare per sempre il mondo accademico da questa pestilenza. L’alternativa c’è: molto semplicemente, cominciare a leggere i lavori scientifici anziché valutarli solo contando le citazioni». Per liberarci dall’ossessione valutativa avremo mai, in questa Penisola troppo spesso a rimorchio degli altri, un esorcista come questo?

[Testo apparso su Il Fatto Quotidiano del 26.10.2019]

Send to Kindle

40 Commenti

  1. Leggere lavori scientifici per motivi di valutazione è un lavoro lento che si presta a distorsioni. I lavori scientifici vengono già letti e studiati da scienziati per motivi scientifici, ed il risultato visibile di questo lavoro sono le citazioni, primariamente date per riconoscere il credito. Quindi la bibliometria è un modo efficiente di quantificare l’opinione media della comunità scientifica. Come ogni strumento si presta a possibili distorsioni. Ad esempio, è possibile sottrarre le auto-citazioni e le citazioni “di scambio”. E, con lo sviluppo di database appositi, non richiede di far perdere tempo alle persone valutate.

    • @Strumia: il problema serio non sono le auto-citazioni o quelle di scambio. Il problema serio è quello evidenziato da Settis. Vero, gli strumenti si prestano a distorsioni. Ma certi strumenti nessuno li userebbe in laboratorio, neanche con correttivi per le distorsioni. La bibliometria, ricordiamocelo, NON è nata per facilitare la vita dei commissari di concorso italiani ma per scopi amministrativi delle biblioteche. Sui grandi numeri potranno dire qualcosa (ma cosa?) solo che nessuno ha veramente studiato da dove si possono applicare i “grandi numeri”.

      Un colloquio con i candidati sulla loro produzione rivelerebbe molto più di qualsiasi bibliometria.

    • Concordo in larga parte parte con Strumia. L’ingenuità di chi pensa, nel 2020, che la valutazione corretta della produzione scientifica si faccia esclusivamente leggendo i lavori, è invero assai evidente. Questo metodo, che abbiamo almeno formalmente sperimentato fino ad oggi, ha portato, almeno in Italia, ma non solo, ad una colossale distorsione. E direi che i risultati sono otto gli occhi di tutti. Una distorsione ben maggiore di quella che si ottiene, statisticamente, usando la bibliometria. La prima cosa che viene da pensare, con un sorriso, è che chi propugna questo improbabile metodo pensa che ci sia da qualche parte un dio lettore universale in grado di leggere tutti i lavori e dare un giudizio ragionevole. In realtà, con la iperspecializzazione corrente, nel 2020 quasi nessuno è in grado di leggere (e figuriamoci di giudicare) un lavoro preso a caso nel proprio ssd. E questo basterebbe a chiudere la discussione. Oggi nessuno ha più tempo di leggere persino i lavori a cui è interessato, figuriamoci quelli che non gli interessano o che non gli sono vicini (cioè quasi tutti). Citazioni di scambio? Bene, ma finora abbiamo visto soprattutto la lettura valutativa di scambio. Tantissima gente impegnata a “leggere” e magnificare lavori della propria cordata e a demolire quelli di provenienti da settori diversi. Con la bibliometria almeno certi scambi si vedono e sono identificabili. In realtà la bibliometria (che è stata usata male da anvur, io abolirei le mediane e le soglie etc) è ormai un ingrediente essenziale (ma non esclusivo) in ogni valutazione internazionale ed è usata informalmente ovunque proprio perché permette di impostare un argine a certe valutazioni apodittiche che altra spiegazione non trovano che nella volontà di enfatizzare la propria “scuola”, demolendo magari la altre concorrenti. Questo è il motivo principale per cui molti baroni la odiano: mette un limite all’arbitrio e permette anche di far emergere personalità indipendenti che altrimenti verrebbero sedate dal cosiddetto “giudizio esperto”. Mettere sullo stesso piano le citazioni con il conteggio di peli etc è da parte di Settis una leggerezza definitiva, che leva molto interesse ad un articolo che lo stesso Settis avrebbe forse fatto meglio a scrivere dopo maggiore meditazione e approfondimento.

    • @alessanrostrumia “il risultato visibile di questo lavoro sono le citazioni, primariamente date per riconoscere il credito. Quindi la bibliometria è un modo efficiente di quantificare l’opinione media della comunità scientifica”.
      Wakefield, Andrew J. et al. “Lancet, Volume 351, Issue 9103, 28 February 1998, Pages 637-641. The Lancet IF 59.102 (fonte ISI 2018) – citazioni 1471 (fonte Scopus 2019). Il lavoro ha innescato la bufala del rapporto tra Autismo e le vaccinazione MMR (acronimo da Measles, Mumps e Rubella, cioè morbillo, orecchioni e rosolia). Wakefield, fortunatamente, nel 2010 (12 anni dopo la pubblicazioni di quel lavoro) è stato radiato dal College of Physicians in UK. Il lavoro è stato retratto molti anni dopo la sua pubblicazioni, tuttavia il prestigio della rivista (il contenitore) indusse un gran movimento nell’opinione innescando una campagna indiscriminata contro le vaccinazioni. Personalmente ritengo Wakefield un imbonitore e responsabile della morte nel mondo di numerosi bambini non vaccinati, ma altrettanto colpevole a mio parere è stato anche l’Editor in Chief della prestigiosa (si dice così) rivista The Lancet, rivista ad elevatissimo Impact Factor nel panorama delle riviste mediche. Inutile dire che l’Editor in Chief continuò a fare l’Editor in Chief.

    • @alessandrostrumia naturalmente Wakefield in Italia avrebbe superato le soglie ASN e potrebbe aspirare a diventare professore di I fascia in Pediatria o in Neuropsichiatria Infantile.
      Nicola Ferrara

    • “…. riconoscere il CREDITO”. E’ così difficile usare l’equivalente italiano: MERITO, VALORE, BONTADE …? E poi, se entrambe le modalità si prestano a distorsioni, scegliamo certamente quella che distorce più rapidamente, poiché time is money, come si suol dire in italiano.

    • Sono contenta che nessuno abbia ancora risposto liquidando esplicitamente il caso Wakefield, sul quale merita ancora leggere quanto ha scritto il matematico Timothy Gowers, come “aneddotica“. Anche se l’articolo di Wakefield fosse l’unico infortunio di “The Lancet”, sarebbe sufficiente a dimostrare che un controllo quantitativo universalmente applicato non può por rimedio alla difficoltà di compiere controlli qualitativi individuali.

      L’abilitazione, nell’università tedesca come riformata da Humboldt, si basava peraltro su un controllo qualitativo e locale: la tesi di abilitazione doveva avere la dignità di un volume e veniva vagliata da una commissione di esperti nominata ad hoc. Chi superava questo passaggio diventava libero docente e non ancora professore, perché l’assunzione in ruolo richiedeva una nomina governativa. Il disegno, almeno nel modo in cui fu effettivamente attuato, aveva pregi e difetti, su cui non vale ora la pena di dilungarsi: colpisce, però, che il sistema italiano in vigore sia quello classico dell’università tedesca messo a rovescio. Da noi, infatti, l’abilitazione è conferita da una commissione di inesperti sorteggiati che, con tutta la buona volontà, può leggere i testi solo poco e male, e l’assunzione dipende da scelte locali: e nessun momento di queste procedure prevede una discussione scientifica effettiva, in senso letterale o almeno metaforico.

  2. Nessun metodo è perfetto, e l’arbitrarietà di certe opinioni scientifiche ed accademiche, non la vorrei più vedere/sentire. Del tipo: X è più bravo di te, te lo garantisco io (pensiero mio non esplicitato: ma se ha pubblicato poco e sulla Gazzetta dello Sport ? Mentre io mi sono dato da fare per pubblicare cose sensate sulle riviste considerate importanti ?). Forse i letterati hanno un bias collegato alle loro discipline che sono sicuramente diverse da quelle scientifiche che pratico. Devo dire poi che nei processi valutativi in cui sono coinvolto, gli articoli cerco di leggerli, ma anche con numeri piccoli, lo sforzo è disumano. Trattasi di articoli specialistici che usano metodi molto diversi tra loro, e ad alcuni dei quali non sono avvezzo. Lì, per lì, ad intuito, alcune cose mi paiono delle puttanate, ma per dare un giudizio equilibrato, mi turo il naso, mi tuffo in una serie di prequel, passando notti insonni. Decido che la cosa è border line, ma sarò nel giusto ? Non è un esercizio facile leggersi articoli scientifici in grande numero, neanche ad uno abituato come me e forgiato (o consunto ?) da trent’anni di frequentazione della disciplina, di revisioni a centinaia e di scambi di opinione numerosissimi con quelli che ritengo i più bravi. Ma allora come vorremo giudicare centinaia di colleghi che lo richiedono ? Mi pare che un passa alto bibliometrico sia una soluzione auspicabile. La scienza non è così facilmente replicabile e riproducibile (e difatti, solo poche esperimenti sono replicati e poche derivazioni teoriche sono riprodotte, ad una rate, in verità molto bassa): è tutta una massa di lavori non facilmente districcabili. Molti scritti benissimo, ma inconsistenti. Alcuni scritti malissimo, ma ricchi di novità. Altri “not even wrong”. Guardo con affetto e disillusione a chi, da una parte e dall’altra, è assolutamente certo delle sue soluzioni. Ma le mie sono un equilibrio precario in un ambiente mutevole e non so cosa dire di più, se non che non mi sottraggo al mio dovere di giudicare e di sbagliarmi, nel caso.

    • Riccardo Rigon, mi pare che il tuo sia un intervento pieno di buon senso. In realtà il sistema dell’ASN è ormai una singolarità italiana e va abolito. E i lavori ormai nessuno li legge più. Mettiamo che arriva un lavoro di 60/70 pagine pieno di conti (nel mio settore, quello dell’Analisi Matematica, non è caso infrequente). Nella normalità della vita quotidiana questo lavoro viene letto solo se e del proprio settore, di interesse e si imbastisce un seminario per decriptarlo, seminario che può prendere qualche settimana di lavoro. Nella realtà fatata delle ASN il commissario deve leggere in un tempo ragionevole decine, se non centinaia, di simili scritti, non del proprio settore e poi dare addirittura un giudizio bilanciato. Credo che manco in Star Trek si arriverebbe a fantasticare tanto. Mettere soglie passa alto? E come? All’interno dello stesso settore la variabilità è troppo alta e poi francamente che uno o due punti di un indicatore numerico possano essere discriminanti è sbagliato e ingiusto, anche perché si rientra nell’errore statistico. Meglio passare a concorsi locali, in cui si può fare ampio uso di referee esterni in combinazioni con criteri bibliometrici non rigidi, come d’altra parte nel resto del mondo, con pesi e contrappesi. È ora di uscire dal Medioevo.

    • Che tristezza vedere reiterata anche nella retorica dei commentatori di roars la contrapposizione tra ‘scienziati’ (sottinteso: VERI scienziati) e ‘letterati’ (sottinteso: imbrattacarte). Abbia almeno la creanza e la correttezza politica di definirci, come usa oggi, ‘non bibliometrici’!

    • Caro Proietti, interpreta male il mio pensiero. Ho il massimo rispetto per coloro che si occupano di materie diversa dalla mia. Non ho la pretesa di essere migliore e lei mi fraintende, cosa che non sembrano avere fatto molti altri colleghi.

  3. Passa alto bibliometrico solo per fare una prima selezione. Almeno in alcuni settori, il mio per esempio, è possibile (e di fatto è già così) Certo anche io amo la libertà di scegliere e di decidere che si ha negli Stati Uniti o in altri paesi. Ma in Italia sarebbe una condanna all’imbreeding. Una buona regola potrebbe essere di non chiamare mai ricercatori che abbiano fatto il dottorato nella sede chiamante. Ma l’unguento che guarisce tutti i mali sarebbe un raddoppio progressivo degli investimenti nella ricerca. Al di là di dotte discussioni è questo che manca.

    • che stupidaggine è questa? Chi ha fatto il dottorato in quella sede universitaria non va chiamato? Prego, ma non sa che c’è una guerra tale per cui certe università chiudono i loro dottorati a provenienti da altre università e poi li esportano (impongono) per ogni dove?
      Mi pare di sentire dei finti ingenui che non sanno cosa succede veramente………..

  4. Sta diventando surreale (secondo il mio umile ed antiquato modo di vedere),
    nonché decisamente tragicomico (perché si gioca sulla pelle, vita e carriera delle persone),
    il riassumere anni ed anni di dibattiti accesi (tra l’ultrapreciso, il superdocumentato e il ‘grazioso’),
    riconoscendo alla fin fine che nella ‘valutazione’ (ci deve pur essere una VALUTAZIONE!!, l’ho sentito anche qualche settimana fa, in uno di quei convegni che sarebbero irrilevanti per la VALUTAZIONE)
    devono prevalere il buon senso, la professionalità, la responsabilità diretta e non affidata ad algoritmi ballerini ideati coi soldi dei contribuenti, l’uso moderato e ponderato di una quantificazione casuale (e poi anche dopata), la lettura diretta dei lavori valutati, e infine anche il colloquio-discussione col candidato.

    • Certamente non mi metterò a ragionare con lei di matematica, ci mancherebbe, non è la mia professione. Tuttavia, limitatamente a quanto ha fatto e fa l’Anvur, cambiando e rimescolando spesso se non continuamente i principi della misurazione, il problema sorge. E’ ritenuto casuale ciò che non è necessario. E’ necessario ciò che fa l’Anvur e il modo in cui lo fa? Perché se è necessario, ineluttabile, imprescindibile ecc. ciò che fa, anche la modalità di realizzazione dovrebbe essere necessaria. Può derivare ciò che è casuale da ciò che è necessario? Forse sì, ma ciò destabilizza, indebolisce, come minimo, ciò che è necessario. E se le modalità cambiano, cosa è necessario e cosa è casuale? Non sto parlando di bibliometria ma di procedure dell’Anvur. Se poi la quantità da valutare è determinata, alterata, modificata ANCHE dal dopaggio, questa quantità è necessaria o casuale? Ovviamente sto arzigogolando o fantasticando su un terreno – come si esprimeva qualcuno? – delle cianfrusaglie pseudoscientifiche, essendo io una ‘umanitaria’. Tra parentesi, vorrei avere conferma del fatto che “… Ernst vince il Nobel per merito della bibliometria … .” e solo della bibliometria.

  5. Adesso basta con queste cialtronerie e deja-vu.
    Invece di sparare a zero contro un sistema collaudato ed efficace a livello mondiale, rispondete alla domanda: se ho un Concorso per un Ricercatore Universitario, come faccio a valutare qual è il candidato più MERITEVOLE di ricoprire quel posto (peraltro pagato coi miei soldi pubblici)? Tiro a sorte? affido la scelta al Barone di turno? Scelgo per simpatia, o per raccomandazione di un Ministro, o di letto? In genere è così che avviene, ma, in realtà, se si volesse fare l’interesse della collettività, si dovrebbe scegliere chi è oggettivamente il migliore, in base a criteri bibliometrici. Questi ultimi non sono la panacea , ovviamente (la Scienza stessa dice che non esiste la Verità, ma un metodo conoscitivo probabilistico più o meno efficiente), ma almeno evitano che il Prof. dia il posto pubblico alla sua amante, o al suo adorato nipotino.
    Per quanto riguarda il qualunquismo ed i luoghi comuni sulle Procedure Di Valutazione Della Ricerca, ciò che si dice è astiosamente sbagliato. Le “occhiute conventicole di studiosi, nominate da prestigiosi (?) ministri, si affannano non a produrre nuovi risultati nelle proprie discipline, bensì a classificare le riviste del settore in prima, seconda o terza fascia” sono una peculiarità italiana, peraltro limitata a discipline che con la vera scienza hanno nulla a che fare. Nelle discipline scientifiche (fisica, biologia, medicina, matematica) le riviste migliori sono classificate internazionalmente; nelle pseudoscienze (sociologia, storiografia, etc.) le riviste di fascia A sono decise da pochi intrallazzatori chiusi in una stanza, poichè, trattandosi di cianfrusaglie scientifiche, non può esistere per loro una bibliometria riconosciuta internazionalmente.
    Per quanto riguarda le farneticazioni del Nobel Richard R. Ernst, si conferma il cosiddetto “Nobel disease”: dopo che hai vinto un Nobel, non dici più niente di intelligente, bensì diventi un inutile e pernicioso metafisico. Prima Ernst vince il Nobel per merito della bibliometria, poi ci sputa sopra.
    Il caso Wakefield, citato a sproposito, è il SIMBOLO della FORZA della scienza. L’ultimo autore di quel lavoro era un prestigioso Barone, il professor Walker-Smith, che ho conosciuto personalmente. Una volta che la Scienza ha scoperto l’inganno, ha massacrato sia Wakefield che il Barone, senza troppi scrupoli. La scienza, quella VERA, non esita a perseguire i malfattori, di qualunque livello sociale e culturale essi siano, mentre, in altro campi, essere malfattori è titolo di vanto.
    Quindi, rimanendo all’articolo abbastanza inutile che sto commentando, le “pittoresche sciocchezze” non sono H-index, impact factor, ma i riferimenti ad Aristotele e Galileo. Quindi chiudo con un appello agli Scienziati: andate a scrivere articoli scientifici, invece di dire boiate. Tali articoli, frutto di mesi di esperimenti, di prove, errori e riprove, vi saranno bocciati da astiosi revisori decine di volte, con motivazioni cattive ed intollerabili; vi costringeranno a modificare le vostre amate frasi, ma , alla fine, vi consentiranno, dopo anni, di essere pubblicati su riviste importanti. Alla faccia di questi rosiconi che pubblicano sul Corriere dei Piccoli.

    • Mi dica che è un troll! La prego mi dica che non è un collega che siede in cattedra.
      Da chi scrive su riviste scientifiche Scopus Ebsco ecc. ecc. e con case editrici americane, inglesi, tedesche prestigiose ed anche, perché non sono affatto inferiori, case editrici serissime ed italiane.
      Ma dovrebbe bastare dire: da un docente.

    • E’ un’ omonimia o è lei lo stesso che lavora presso il Center for Nonlinear Sciences della North-Texas University e la ASL NA2 Nord ?

    • Si, sono proprio quello nominato:
      Arturo Tozzi
      M.D., Pediatrician, ASL Na2Nord, Italy
      phD, Computational Intelligence Lab, University of Manitoba, Canada
      Adjunct Assistant Professor in Physics, University of North Texas, USA
      Tu guarda un pò che si deve fare per campare…

      Le mie pubblicazioni sono qui:
      http://arturotozzi.webnode.it/ 

      Confesso che anch’io, tra mie pubblicazioni (ad esempio ed a casaccio, NEJM, Plos Biology, Physics of Life reviews, Frontiers Hum Neurosci, Am J Human Genetics) ho qualche lavoro tristanzuolo scritto in italiano, su riviste italiane. Sottolineo che gran parte dei lavori compresi in questa tranche autoctona, guarda caso, non sono stati sottoposti a reviews, ma commissionati o richiesti da Editori o da amici di amici di amici. Ovviamente, se ritengo di avere qualcosa di importante da dire al mondo, lo scrivo in Inglese, altrimenti chi mi capisce, chi mi leggerà mai?

    • Pur rispettando la sostanza dell’intervento del prof Tozzi, faccio notare che affermare di voler “valutare qual è il candidato più MERITEVOLE” e di poterlo fare scegliendo “chi è oggettivamente il migliore, in base a criteri bibliometrici” è logicamente in contrasto con la constatazione che i cirteri bibliometrici “almeno evitano che il Prof. dia il posto pubblico alla sua amante, o al suo adorato nipotino”. La terza tra le affermazioni citate è più vera delle prime due: i criteri bibliometrici sono il meno peggio ed è necessario essere consapevoli che non possono distinguere tra candidati meritevoli, ma soltanto scartare eventuali candidati non meritevoli (oggi sempre più rari almeno nelle aree delle scienze “dure”). Quando ci si affida a criteri bibliometrici si può al massimo ottenere che il candidato scelto appartenga ad una ampia rosa di meritevoli, non certo che sia il più meritevole.

  6. @Rigon Ma chi l’ha detto che sarebbe una condanna all’inbreeding? Non tutti dobbiamo per forza sempre e comunque sbagliare. Se ci fosse un nome-cognome che se sbaglia paga su ciascuna assunzione ed una valutazione ex-post a livello di struttura, con criteri noti per tempo, si potrebbe spingere verso l’evitare scelte deteriori. Anche no-addottorati locali si presta a distorsioni, posso mandare mio nipote ad addottorarsi altrove e non poter prendere una persona brillante che si è formata da me, etc. etc.
    È proprio l’idea di impedire, a priori di una assunzione, che ci sia una scelta non nell’interesse dell’istituzione che trovo essere fallace. Serve una valutazione ex-post e a me pare proprio che non si voglia farla, non che non si possa.

  7. “L’ingenuità di chi pensa, nel 2020, che la valutazione corretta della produzione scientifica si faccia esclusivamente leggendo i lavori, è invero assai evidente. Questo metodo, che abbiamo almeno formalmente sperimentato fino ad oggi, ha portato, almeno in Italia, ma non solo, ad una colossale distorsione. E direi che i risultati sono otto gli occhi di tutti. Una distorsione ben maggiore di quella che si ottiene, statisticamente, usando la bibliometria. La prima cosa che viene da pensare, con un sorriso, è che chi propugna questo improbabile metodo pensa che ci sia da qualche parte un dio lettore universale in grado di leggere tutti i lavori e dare un giudizio ragionevole. In realtà, con la iperspecializzazione corrente, nel 2020 quasi nessuno è in grado di leggere (e figuriamoci di giudicare) un lavoro preso a caso nel proprio ssd. E questo basterebbe a chiudere la discussione.” Questo passo non dimostra che leggere i lavori sia da ingenui (nel 2020: mi scusi linguaggio da TV che non vuol dire niente…), ma che non si può giudicare tutto, così come avviene nelle attuali commissioni ASN e non avveniva nei concorsi di qualche anno fa. Ergo: è il sistema che non funziona. Aggiungerei: poiché tutti sappiamo che non si può essere esperti di tutto nei macrosettori che sono stati creati, ma anche in quelli più snelli precedenti, si profila questa situazione: i commissari dicono stupidaggini sapendo di dirle (ma non se ne scusano), non chiedono parere pro veritate, come l’onestà intellettuale richiederebbe, e chiedono che il giudizio lo scriva un altro, magari malevolo collega. Ci sono andata lontano? E allora, questo 2020 è veramente barbaro, non si parli di valutazione, ma di raccomandazione, giochi per l’occupazione di cattedre, amore per il sapere unico, di tutto, ma non di valutazione…

  8. Se posso, vorrei chiedere a tutti i colleghi, uno sforzo per mettere insieme quello che non dico solo io, e correggere queste proposte di reclutamento ed avanzamento carriera, ancora una volta un calcolo aritmetico di progressione carriera, che non conta ciò che conta nella ricerca vera e nel lavoro dello studioso. Rigettiamo questi progetti, o almeno lottiamo per cambiarli. Avremo meno tempo per le congiure di palazzo, per le meschinità accademiche, molto di più per i nostri studenti, e per la nostra crescita professionale e culturale.

  9. un’altra cosa ancora, ma sono proprio indignata: gli algoritmi non ti vengono spiegati. Mai. Cambiano gli elementi considerati. Cambiano persino le riviste di fascia A. Ma è possibile lavorare senza essere distratti da questi dati, immessi chiaramente per favorire l’uno o l’altro?

    • Aggiungo anch’io una cosa: è semplicemente inaccettabile (ma in molti non ci fanno neanche caso, sedotti dalle solite parole d’ordine su “merito” e distrattori vari) che questi criteri “oggettivi” bibliometrici o meno, arrivino sempre “oggi per allora”. Ovvero ci si trova giudicati (individui e strutture) sulla base di una numerologia che non era neanche esattamente nota nel momento in cui si prendevano le decisioni su cosa pubblicare e dove.
      Algoritmi e dati, ammesso che si voglia ridurre la valutazione a questo, dovebbero essere noti in anticipo e non cambiare da un anno all’altro. Mi sembrano concetti di elementare buon senso ma vedo che sono estranei ai molti fan della numerologia applicata.

  10. “Aggiungo anch’io una cosa: è semplicemente inaccettabile (ma in molti non ci fanno neanche caso, sedotti dalle solite parole d’ordine su “merito” e distrattori vari) che questi criteri “oggettivi” bibliometrici o meno, arrivino sempre “oggi per allora”. Ovvero ci si trova giudicati (individui e strutture) sulla base di una numerologia che non era neanche esattamente nota nel momento in cui si prendevano le decisioni su cosa pubblicare e dove.
    Algoritmi e dati, ammesso che si voglia ridurre la valutazione a questo, dovrebbero essere noti in anticipo e non cambiare da un anno all’altro. Mi sembrano concetti di elementare buon senso ma vedo che sono estranei ai molti fan della numerologia applicata.” Giorgio Pastore
    Non solo buonsenso, ma credo anche legge. Quando mai i titoli vengono cambiati … in corsa?
    Condivido ogni parola della citazione

  11. Mi ha sempre stupito che nel dibattito sulla valutazione basata su criteri bibliometrici di rado di parli del fatto che in essa non conta il numero di autori di una pubblicazione per cui, a parità di valori degli indicatori, chi firma assieme a una decina (o più) di altri ha dei punteggi uguali di chi ha prodotto da solo (o con uno o due coautori) lo stesso numero di articoli e con lo stesso impatto. E’ una moltiplicazione dei pani e dei pesci, perché non costa nulla aggiungere una firma per fare un favore, uno scambio, o preparare i titoli per un allievo che si vuole avvantaggiare. Da quando è iniziata la valutazione “oggettiva”, ho visto colleghi che prima non avevano mai scritto una riga in inglese pubblicare improvvisamente diversi articoli internazionali all’anno a più firme. Chi lavora da solo o non fa parte di una cordata viene spazzato via.

    • Che dire di chi è giudice nella ASN di pubblicazioni in cui compare il suo nome come autore insieme al candidato?

  12. Toh, ma guarda un pò che coincidenza: giusto oggi. Torino, la procura: “Concorso truccato a Medicina per favorire la figlia di un barone”
    https://torino.repubblica.it/cronaca/2019/10/31/news/torino_las_procura_concorso_truccato_a_medicina_per_favorire_la_figlia_di_un_barone_-239950963/

    “Sciocchezze ammantate di scienza” è il titolo di questo post sul quale stiamo discettando di Massimi Sistemi.
    Suggerisco di cambiare il titolo in “Non ammantate di sciocchezze la scienza”.

  13. Articolo parzialmente condivisibile. Purtroppo l’idea di valutare i ricercatori e docenti leggendo la loro produzione scientifica è impraticabile salvo casi particolarissimi riguardanti procedure con pochissimi candidati; e in ogni caso la valutazione effettuata leggendo la produzione scientifica sarebbe alquanto arbitraria ed influenzata da fattori imprevedibili quali la maggiore o minore competenza del valutatore nello specifico campo di ricerca del candidato. Occorre accettare il fatto che, se valutare è necessario, il ricorso a parametri bibliometrici è inevitabile. Pertanto occorre anche essere consapevoli che le valutazioni non possono che essere grossolane ed utili a scremare quel piccolo numero di ricercatori inattivi o pressoché inattivi dalla maggioranza degli attivi. Di certo una valutazione bibliometrica NON può essere utilizzata per produrre classifiche e selezionare i “migliori” tra gli attivi. Per questo occorre preliminarmente chiedersi in quali contesti e per quali scopi la valutazione sia necessaria. Il principale scopo della valutazione possibile deve essere quello di garantire una qualità minima omogenea dell’insegnamento sul territorio nazionale, ed individuare eventuali situazioni di sofferenza sulle quali intervenire in senso migliorativo.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.