Ecco la seconda (chissà se anche ultima e senza errori) versione delle soglie ASN proposte  da ANVUR a MIUR, e sottoposte al parere CUN.

Questa volta i file sono pdf scannerizzati, quindi non convertibili in excel. Per trovare gli errori rispetto alla prima versione c’è da fare un lungo lavoro.

Ricchi premi e cotillons per i lettori che segnaleranno gli errori.

allegato 1

allegato 2

allegato 3

allegato 4

Send to Kindle

83 Commenti

  1. Agreed. Segnalo che la bibliometria si è resa necessaria proprio per le storture del sistema nostrano, il problema è che è piegata a visioni distorte e forse indirizzata a scopi e interessi particolari. Proprio per evitare questo, propongo una bibliometria della bibliometria, e poi una bibliometria della bibliometria della bibliometria …….

  2. In effetti anche sulla tempistica dei dati considerati c’è molta confusione…io direi 2012-2016 per il numero di pubblicazioni e 2007-2016 per citazioni e h index…vi sembra ragionevole?

    “c) al fine di cui alla lettera b) gli indicatori sono calcolati all’ultima data utile per la presentazione delle domande e riferiti esclusivamente a quanto riportato nelle stesse nel rispetto della previsione di cui all’articolo 5, comma 3, utilizzando entrambe le banche-dati di cui al comma 2 e considerando, per ogni prodotto scientifico, il valore più favorevole al candidato”.

    • @Klaus “vi sembra ragionevole?” No. 2012-2016 non sono cinque anni. Se il bando partisse adesso, prevedendo la scadenza ad Agosto, sarebbero 4 anni e 8 mesi. Se ricordo bene, il calcolo si articola così: si parte del 2016, si sottraggono 5 + 1. Ergo 2011-2016. Se il bando dovesse uscire nel 2017, si passa dal 2012-2017 (data scadenza bando). Se andate nell’ASN 2012-2013 mi sembra che sia spiegato come fare il calcolo.

    • Qualcuno mi spiega quale è la ragione per cui per gli associati valgono 10 anni e per gli ordinari 15? Vi sembra possibile che i coautori con cui ho lavorato in quei 5 anni potranno utilizzare quegli articoli per l’abilitazione da ordinario mentre io non potrò utilizzarli per l’abilitazione da associato?

  3. Gentile collega Baccini,
    Chi ha stabilito che non mi pongo il problema dei coautori? Certo che il numero di coautori rappresenta un problema, e allora? Il fatto che esistano tanti altri problemi che cosa significa? E’ noto ed ovvio che esistono tante altre criticità. Questi altri problemi non diminuiscono l’importanza delle criticità segnalate. Sono semplicemente altri problemi. Cerchiamo di non fare confusione.

    Inolte, mi perdoni Baccini ma la diffusione di un indice non dice nulla sulla sua validità. (“un indicatore standard molto diffuso di produzione scientifica individuale. “). Il numero di articoli rimane un indice poco sensato se utilizzato indipendentemente da una valutazione del tipo di pubblicazione (nota o articolo etc), e la collocazione editoriale del lavoro. Il fatto che altri indici (ad es. somma di IF) pongono altri problemi, non risolve le criticità. Infine, segnalo che sarebbe opportuno limitarsi ad esprimere le proprie idee, senza tentare di attribuire ad altri affermazioni o idee. Si tratta di un modo di procedere inutilmente sgradevole.
    Ribadisco, il numero delle pubblicazioni rappresenta a mio modo di vedere un indice poco valido, indipendentemente dalle criticità di altri indici, e dalla ovvia necessità di leggere criticamente gli articoli da parte di esperti.

    • Gentile collega Codispoti,
      credo di avere spiegato che l’indice numero totale di pubblicazioni è l’indicatore standard di produzione più utilizzato.
      Lei sostiene che se ne dovrebbe fare un altro, pesando per tipo di pubblicazione e sede di pubblicazione.
      La prima pesatura è arbitraria, nel senso che qualcuno deve decide che una lettera vale come, che so, 1/5 di un articolo. Ci sono un po’ di esempi in giro, non ne conosco nessuno che pesi in modo diverso forme diverse di pubblicazioni su riviste. Ma potrebbe essermi sfuggito. Non è particolarmente problematica (e nanche molto significativa, a mio parere)
      La seconda modifica è quella che invece contesto. I due modi in cui è applicata più spesso sono: somma degli IF (che non è un’altra indicatore, è il modo più diffuso per risolvere il problema che lei pone); peso alle riviste, come fa anvur per i non biblioemtrici: la seconda soglia dà peso uno a tutti gli articoli su riviste in classe A e peso 0 a tutti gli altri. Se ne possono inventare tanti altri di modi di pesare la sede di pubblicazione. Ma a mio parere (ed a parere dei sottoscrittori di DORA, di IEEE, degli autori dell’articolo citati nell’altro commento e di una valanga di altri autori) non lo si deve fare. Si tratta di astrologia (cito da questa rassegna sul tema di Brembs http://riviste.unimi.it/index.php/roars/article/view/3378).
      In sintesi, non si possono costruire soglie necessarie basate sull’astrologia. ANVUR lo fa.

  4. Al di là del penoso balletto delle soglie, per esperienza personale (trombato all’ASN 1.0), trovo inquietante anche il comma 2 dell’articolo 5 del “regolamento”, dove la Commissione sceglie (almeno 6) e accerta il possesso di almeno 3 titoli tra quelli presenti nell’allegato A. Come si muoveranno le Commissioni?

  5. Gentile collega Baccini
    probabilmente apparteniamo ad universi molto distanti. Nel mio ambito una nota o lettera è una cosa e un articolo, o una review sono cose molto diverse da numerosi punti di vista.
    Per quanto riguarda il parere suo o dei sottoscrittori di DORA, di IEEE, ritengo che siano solo pareri (con buona pace di De Nicolao e delle sue “scientificamente sensati” ), senza dati di validità convergente, e che prendono in considerazione solo un aspetto del problema, senza proporre soluzioni utili. Quindi anche se la collocazione editoriale non garantisce la bontà di un lavoro , è altresì vero che lo standard di valutazione di molte riviste prestigiose è sicuramente molto elevato, e non confrontabile con riviste minori.

    • Perché non leggersi qualcosa? Perché non fare questo sforzo una volta? Perché la discussione sulla bibliometria in Italia deve essere a questo livello? A prescindere dal fatto che lo standard di valutazione in riviste “molto prestigiose” sia effettivamente “molto elevato”, fatto su cui ci sono davvero seri dubbi da chiunque abbia studiato il problema in maniera scientifica (e già si possono anche analizzare i dati), i punti su cui c’è una convergenza a livello internazionale è che (1) non si possono valutare gli articoli sulla base dell’IF della rivista (2) la bibliometria automatica non va usata per la valutazione individuale dei ricercatori.

    • La invito a risparmiarsi commenti come “Perché non leggersi qualcosa? Perché non fare questo sforzo una volta? ” Io mi sono documentato seriamente da diversi anni, e trovo questo genere di commento non solo privo di contenuti convincenti, ma anche davvero poco gradevole e rispettoso del parere di altri.
      Mi pare evidente che sulla base di quanto scrive, non ha letto neanche quanto da me scritto nei commenti. Infatti non ho mai affermato quanto lei mi attribuisce (veda suoi punti 1 e 2.
      Trovo questo vostro modo di confrontarvi con le persone che scrivono commenti davvero sgradevole e poco rispettoso.

    • Ottimo metta qualche link allora: ci saranno degli articoli scientifici che mostrano che lo standard di valutazione in riviste “molto prestigiose” sia effettivamente “molto elevato”. Aspettiamo, grazie.

    • Forse non ha letto i miei commenti precedenti. Non ho mai affermato che si debba considerare la sola collocazione editoriale degli articoli per valutare un candidato. Ho semplicemente sottolineato le criticità nell’utilizzo di un indice che riguarda il numero di pubblicazioni.
      Il numero di pubblicazioni è un indice problematico, se non tiene in considerazione la tipologia delle pubblicazioni e la collocazione editoriale. Tutti i ricercatori conoscono bene il problema, e chiunque si rende conto che gli standard richiesti dalle riviste scientifiche variano notevolmente. In wos e scopus sono presenti una quantità enorme di riviste minori, semplicemente in quanto i criteri per essere presenti in questi database non hanno nulla a che vedere con la scienza. Mentre le riviste più importanti sono generalmente gestite da ricercatori riconosciuti dalla comunità di riferimento, e sono generalmente di alto profilo scientifico. Questo non accade in molte riviste minori gestite molto spesso con altri obiettivi da ricercatori con competenze molto limitate. Voler negare questo significa essere lontano dalla realtà, ed avere posizioni ideologiche, guarda caso tipiche di chi:
      1) pensa di non avere opinioni ma di conoscere i fatti;
      2) procede attribuendo in modo stereotipato agli altri posizioni di comodo(veda i suoi punti 1 e 2);
      3) non è in grado di confrontarsi rispettando le opinioni degli altri, e assume toni inaccettabili.

      Visti i punti 1, 2 e 3, preferisco salutarvi cordialmente.

    • “Il numero di pubblicazioni è un indice problematico, se non tiene in considerazione la tipologia delle pubblicazioni e la collocazione editoriale. Tutti i ricercatori conoscono bene il problema”. Vediamo se ci capiamo: il numero di pubblicazioni è un indicatore di produzione. Lei vuole che diventi un’altra cosa. Benissimo. Non sarà più un indicatore di produzione. UN po’ come attribuire probelmaticità ad una mela perché non è una pera. Ovviamente la frase “tutti i ricercatori conoscono bene il problema” non ha base fattuale.
      “chiunque si rende conto che gli standard richiesti dalle riviste scientifiche variano notevolmente”, e questo è asosolutamente vero; di tutto quello che segue invece non c’è evidenza. E’ l’argomento pedagogico anvuriano per eccellenza. Spingere i giovani a pubblicare sulle “riviste con più elevato IF perché hanno procedure di revisione più selettive. Il che allo stato delle conoscenze attuale è falso.
      Si veda brembs: http://journal.frontiersin.org/article/10.3389/fnhum.2013.00291/full
      e soprattutto:
      https://blog.frontiersin.org/2015/12/21/4782/

    • Che il “Journal Ranking” sia un indice controverso è evidenziato molto in letteratura (e.g. https://halshs.archives-ouvertes.fr/halshs-00568746/fr/ ). È altrettanto vero, che forme diverse del JR sono utilizzate in varie nazioni (e.g. Danimarca) come tools di valutazione ufficiale (http://ufm.dk/forskning-og-innovation/statistik-og-analyser/den-bibliometriske-forskningsindikator/autoritetslister)
      Quello che il collega Codispoti diceva e che trovo condivisibile, è che alcune riviste sono migliori di altre (inevitabile conseguenza) per via della maggiore qualità degli articoli pubblicati sulla rivista stessa. Non credo che necessariamente sia l’IF l’indice magico che ci possa dire quanto “buona” sia una rivista. Credo però, per esperienza diretta che presumo condividile con molti colleghi, che pubblicare in alcune riviste sia più difficile che pubblicare su altre per via, per esempio, di revisione più approfondire o reviewer più “sul pezzo” o la mole di dati richiesti. Non credo che abbia detto nulla di eretico e cercava di capire come un indicatore del numero delle pubblicazioni non tenesse in considerazione la collocazione editoriale (“collocazione editoriale” tanto cara da sempre alle nostre commissioni). Da qui ad arriva a commenti sarcastici e indispettiti, però, ne passa e si basa, soprattutto, sulla buona educazione che non deve mai mancare, ma che a volte è ultimamente su questo blog langue.

    • “alcune riviste sono migliori di altre (inevitabile conseguenza) per via della maggiore qualità degli articoli pubblicati sulla rivista stessa”. Lodispoti non ha scritto questo, ma questo è un punto cruciale. L’idea è di inferire la “qualità” della rivista dalla “qualità” degli articoli che vi sono pubblicati. Che è precisamnete il tipo di ragionamento che si fa quando si costruisce un qualsiasi journal impact indicator, per esempio l’IF.
      Con una direzione di causalità qualità articoli -> qualità riviste.
      E’ l’inversione della direzione di causalità (qualità rivista -> qualità singolo articolo) non regge, come si legge nella letteratura citata nei commenti precedenti.
      Nessuno nega che costruire liste di riviste sia pratica molto diffusa. E che le liste di riviste siano usate in esercizi di valutazione istituzionali. Anche gli oroscopi sono molto diffusi.

    • Quello che i colleghi non capiscono (e questo dà la misura di quanto siano a digiuno della letteratura bibliometrica) è che si ostinano a ripetere tesi che nessuna persona competente ripeterebbe. Un po’ come se un membro della “Flat Earth Society” (esiste davvero: https://www.roars.it/online/se-anvur-dicesse-che-la-terra-e-piatta-noi-gli-crederemmo/) si offendesse quando gli dicono che è rimasto un attimo indietro e che farebbe bene ad aggiornare quelle che lui crede siano nozioni scientifiche di geografia e sono invece solo pregiudizi diffusi. Che poi il “flatearther”, non potendo portare argomenti scientifici invochi la buona educazione e il rispetto di tutte le opinioni aggiunge quel tocco di surrealtà che non guasta mai.

    • Richiedere la buona educazione non è mai superfluo (i miei genitori sono sempre stati dei buoni maestri) ed è alla base della convivenza civile ed il motivo per cui io ed alcuni colleghi continuiamo a tenere toni pacati pur venendo derisi rispetto a “evidenti certezze inconfutabili”. Tralascio il paragone con la chi crede che la terra sia piatta (ovviamente, da ricercatore, la cosa risulta davvero insultare…lo vedo solo io?). Chiedo, invece, dove sia il problema nel sostenere che ci siano riviste migliori e riviste peggiori. Ripeto, perché a qualcuno piace virgolettare qualunque cosa, che aver scritto su una rivista “buona” non vuol dire certo di aver fatto un “buono” articolo. Ma soprattutto, chiedo chi è chiamato a giudicare che insindacabilmente un articolo sia “buono”. Tutto nella massima educazione e pazienza. Infine, chiudo con un’esperienza che mi è successa almeno 28 volte nella vita. Devo continuare la mia ricerca sulla fatica termomeccanica dei materiali. Vado su Google Scholar che preferisco perché mi permette di cercare anche articoli che non compaiono su riviste indicizzate o banche dati a pagamento. Finita la mia ricerca bibliografica, mi accorgo che il 90/95% degli articoli che ritengo “interessanti” sono su riviste ritenute “prestigiose”. Lavorando anche un po’ con la statistica, la cosa mi incuriosisce, ma tralascio e continuo rileggendo attentamente giù articoli selezionati in precedenza. Da buon ricercatore, cerco anche gli articoli che vengono citati negli articoli che selezionato. Anche in questo caso succede una cosa inaspettata: il 90/95% degli articoli citati dagli articoli che ho precedentemente selezionato compaio su riviste ritenute “prestigiose”. La cosa, statisticamente, mi incuriosisce sempre più…ma tralascio. Tra gli articoli citati degli articoli citati dagli articoli selezionati in prima battuta noto nuovamente che il 90/95% degli articoli compare su riviste “prestigiose”. Arcipuffolina! Ma questo è un mistero che va svelato, che ha indagato alla faccia della fatica termomeccanica dei materiali! Ed alla fine, dopo tanti calcoli e ragionamenti, da uomo delle caverne che crede che la terra sia piatta (sarà legata al fatto che sono terrone???) ho una illuminazione: è evidente che c’è un GOMBLOTTO orchestrato da Google e le riviste “prestigiose”, non vi è alcun dubbio. Ovviamente, sempre da uomo delle caverne che crede che la terra sia piatta tralascio nella mia analisi che negli ultimi 30 sulle riviste “prestigiose” di prima siamo state presentate le più importanti ricerche nel settore della fatica termomeccanica dei materiali e continuo a tralasciare che l’Editor sia uno tra le menti più brillanti di quell’argomento e tralascio ancora che l’EB si A formata da noti studiosi del settore e lascio lì in un cantuccio il fatto che i reviewer sono selezionati secondo una logica di chiara competenza. Prof. De Nicolao, ho scoperto il GOMBLOTTO…sono stato bravo?

    • “Chiedo, invece, dove sia il problema nel sostenere che ci siano riviste migliori e riviste peggiori. ”
      ________________________
      Sembra di riascoltare Diego Marconi, secondo il quale “In tutte le aree c’è ricerca migliore e ricerca peggiore” era la prima di cinque fondamentali tesi che, secondo lui, costituivano la “cultura della valutazione” (https://www.roars.it/online/diego-marconi-e-la-valutazione-della-ricerca-fascination-with-the-unknown/).
      Per una qualche ragione che meriterebbe un’indagine approfondita, molti professionisti italiani della scienza quando si discute di valutazione scordano ogni habitus scientifico. Alle ortiche l’abitudine a documentarsi sullo stato dell’arte come passo preliminare, sdoganamento degli aneddoti rispetto all’uso di dati e statistiche, caduta dei freni inibitori a proporre soluzioni in una disciplina di cui si è letto poco o nulla. Per non dire del ricorso a punti esclamativi, interiezioni arcipuffolose e “gomblotti” scritti in maiuscolo. Inutile dire come verrebbe trattato un dilettante che si mettesse a pontificare di fatica termomeccanica dei materiali senza conoscere la letteratura del settore. Ma per qualche ragione, quando si parla di calcio e scientometria vale il “liberi tutti”.
      P.S. La descrizione che Risitano fa del suo “esperimento bibliometrico” ha degli elementi di ingenuità (terminologica e metodologica) che testimoniano molto bene la caduta dei freni inibitori di tipo scientifico quando ci si muove all’esterno del proprio settore. Un’analisi (scientifica questa volta) che viene spesso citata sulla correlazione tra Impact Factor e citazioni (una misura un po’ meno nebbiosa del “ritengo interessanti”) è quella di Seglen, il quale conclude:
      ______________
      «on statistical grounds alone, journal impact is unsuitable as a proxy measure of article citedness: only a small fraction of a journal’s articles are anywhere near the average citedness defined as the journal impact factor »
      Seglen, Per O. “Causal relationship between article citedness and journal impact.” Journal of the American Society for Information Science 45.1 (1994): 1.


      Naturalmente, qualsiasi risultato scientifico è sottoponibile a critica e revisione, ma entrare in una discussione sulla relazione tra “valore” degli articoli e “valore” delle riviste, ignorando i lavori di Seglen denota una discreta dose di naïveté, soprattutto quando si mostra di non avere il minimo sospetto dell’esistenza di studi scientifici sull’argomento. Un po’ come discutere di fatica termomeccanica senza avere nemmeno l’idea che esiste una disciplina chiamata termodinamica e che ha prodotto dei risultati che si dovrebbero conoscere prima di parlare.

    • Sapevo che sulla frase “Chiedo, invece, dove sia il problema nel sostenere che ci siano riviste migliori e riviste peggiori” avrei acceso le fiamme dell’inquisizione del blog.

      Mai avuto freni inibitori ed adoro i punti esclamativi (c’è anche chi adora le virgolette). Ho, infatti, caro Prof., specificato che sono un uomo delle caverne.

      Faccio solo notare, se ha la bontà e la pazienza di seguirmi, che:
      – non ho mai detto che esista ricerca migliore e ricerca peggiore.
      – non ho mai detto che l’IF sia un buon metro di valutazione per la rivista.
      – non ho mai detto che un articolo che compare su una rivista con IF alto sia automaticamente un buon articolo (lascio ad altri il dovere di fare questa valutazione).
      – sostengo, invece, che come sempre la vita dimostra, c’è un “migliore” e c’è un “peggiore”. Nel caso delle riviste, non credo che l’IF sia il metro. Credo, invece, che quello che contiene la rivista stessa, numero per numero (qualità dei paper, autori coinvolti, tematiche affrontate, etc.) sia il vero metro, forse soggettivo, da andare ad attenzionare.
      – ho parlato di riviste prestigiose definendole tali per le caratteristiche che ho ironicamente elencato a fine post precedente (Editor, EB, reviewer, etc.)

      L’esempio che ho poi fatto, se pur molto semplice, magari per adattarmi a certi standard qualitativi, nella sua ingenuità rappresenta una forte porzione della realtà descritta. Potrà non significare nulla, ma è un modello facilmente riscontrabile. Che vuole farci, noi menti semplici non andiamo oltre l’equazioni di primo grado.

      Con questa mia, lascio l’interessante discussione non replicando più in futuro conoscendo il suo vezzo di avere comunque l’ultima parola (qualità che per altro stimo, se pur pedante) e la ringrazio per la sua oggettiva infinita pazienza.

      Cordialmente

    • PS scusate per alcuni errori di battitura, ma scrivo dall’ipad ed il correttore automatico fa “miracoli”.

    • Premesso che paragonare un tool utilizzato da più governi per la valutazione scientifica nazionale all’ oroscopo di uno mattina mi sembra, a dir poco, semplicistico, convengo che non è necessariamente vero l’assioma “alto IF = buona rivista = buon paper”. Detto questo, per esperienza empirica mia e di molti miei colleghi (credo anche vostra), si può serenamente dire che gli articoli più interessanti, intesi come “aiuto per proseguire la propria ricerca”, si trovano molto più frequentemente su una rivista “importante” che al Convegno di Calascibetta (non me ne abbiano quelli di Calascibetta). Quello che il collega Codispoti ha più volte cercato di dire, che per un determinato preconcetto non è stato recepito, è che questa rilevanza statistica del fatto che gli articoli “più importanti” compaiono prevalentemente in certe riviste e non in altre deve essere tenuto in considerazione. Personalmente, non fidandomi necessariamente dell’IF, non lo utilizzerei ciecamente. Ovvio che sempre allo stesso convegno di Calascibetta si può vedere un paper che contiene una scoperta rivoluzionaria valida per il nobel, ma credo sia meno probabile del fatto di trovarlo su Science. Detto questo, solo un’attenta lettura del paper in questione da parte di una commissione di esperti può “probabilmente” dirci la bontà del paper stesso.

    • Consapevoli che la maggior parte dei colleghi non hanno l’abitudine di documentarsi prima di dibattere questi argomenti (e purtroppo nemmeno prima di progettare sistemi di valutazione locale o nazionale basati sul bricolage bibliometrico) facciamo del nostro meglio per divulgare i punti salienti del dibattito internazionale in modo che almeno chi legge Roars non resti a bocca aperta quando si fa notare che alcuni pregiudizi comuni vengono smentiti dallo stato dell’arte scientifico. Infatti, se dall’esperienza “empirica” (ma senza dati), passiamo alla letteratura scientifica, si vede che le convinzioni bibliometriche dell’accademico medio italiano tendono ad essere obsolete, come mostra questo estratto da un nostro post del 2013:
      _________________________
      «[…] come osserva Nature citando di nuovo DORA, l’IF dà solo una media delle citazioni di una rivista, ma dice poco sull’impatto dei singoli articoli pubblicati in quella rivista. A riprova di ciò viene citato un recente post di George Lozano apparso sul blog della London School of Economics [http://blogs.lse.ac.uk/impactofsocialsciences/2012/06/08/demise-impact-factor-relationship-citation-1970s/], il cui titolo è eloquente:

      The demise of the Impact Factor:
      The strength of the relationship between citation rates
      and IF is down to levels last seen 40 years ago

      A sua volta Lozano cita un suo articolo scientifico (The weakening relationship between the Impact Factor and papers’ citations in the digital age http://georgealozano.com/papers/mine/Lozano+2012-DIF.pdf) in cui il declino dell’IF come misura dell’impatto dei singoli articoli è visto come conseguenza dell’avvento dell’era digitale in cui gli articoli sono reperibili individualmente e non più come parte di un fascicolo cartaceo:

      since 1990, the advent of the digital age, the relation between IFs and paper citations has been weakening. This began first in physics, a field that was quick to make the transition into the electronic domain. Furthermore, since 1990 the overall proportion of highly cited papers coming from highly cited journals has been decreasing and, of these highly cited papers, the proportion not coming from highly cited journals has been increasing. Should this pattern continue, it might bring an end to the use of the IF as a way to evaluate the quality of journals, papers, and researchers.

      Rimandiamo alla lettura dell’articolo di Lozano et al. chi fosse interessato all’analisi bibliometrica che dimostra questa inversione di tendenza. In ogni caso, la natura macroscopica del fenomeno è testimoniata dal seguente grafico che evidenzia il netto cambio di tendenza verificatosi nell’ultimo decennio.


      Figura. Percentuale tra i “top 5% most cited papers” di quelli che non sono stati pubblicati nei “top 5% most cited journals”. Si noti l’andamento crescente nella parte finale del grafico che sta ad indicare la crescente presenza di lavori molto citati apparsi in riviste che non sono al top nelle classifiche dell’Impact Factor (Fonte: Lozano, G. A., Larivière, V. and Gingras, Y. 2012. The weakening relationship between the Impact Factor and papers’ citations in the digital age. Journal of the American Society for Information Science and Technology 63: 2140-2145). […]»
      ——–

      da: https://www.roars.it/online/impact-factor-nuovo-record-66-riviste-squalificate-per-doping/
      17 ottobre 2013

    • Sicuramente non ho letto tutto quanto esiste sull’argomento perché, anche se mi occupo di “problemi bibliometrici”, tendenzialmente faccio altro. Il rapporto IF/qualità dell’articolo è complesso, oltre che per le ragioni già citate, perché non è chiaro quale IF associare all’articolo. In teoria, l'”impatto” dell’articolo su IF è per i due anni a seguire, mentre di solito si associa o l’IF dell’anno di pubblicazione (a cui l’articolo potrebbe non aver contribuito) o l’ultimo pubblicato. Se ricordate, si era pure studiato l’IFN (impact factor normalizzato) o altri parametri, tipo IPP/SJR, tanto cari alla VQR. In realtà, comunque si voglia vedere il problema, nessun indice bibliometrico o soglia o altro può fornire informazioni sulla qualità di un articolo. Ci sono troppe variabili concomitanti e troppi fattori confondenti. Una “soglia”, comunque definita, dovrebbe servire solo come pre-screening per selezionare in modo quantitativo i soggetti che vanno a valutazione qualitativa, confidando nell’oggettività della commissione….

    • maurizio codispoti: «Per quanto riguarda il parere suo o dei sottoscrittori di DORA, di IEEE, ritengo che siano solo pareri (con buona pace di De Nicolao e delle sue “scientificamente sensati” ), senza dati di validità convergente»
      _________________________
      Se DORA la San Francisco Declaration on Research Assessment – http://am.ascb.org/dora/) è stata sottoscritta da 737 organizzazioni (comprese riviste come Science, Plos e PNAS) e 12.2333 individui, forse alcuni “dati di validità” ci sono, a meno che le seguenti organizzazioni aderenti (e molte altre) abbiano preso un abbaglio:

      – American Association for the Advancement of Science (Science)
      – American Society for Cell Biology
      – Association for Psychological Science
      – British Society for Cell Biology
      – EMBO
      – European Association of Science Editors
      – European Mathematical Society
      – European Optical Society
      – European Society for Soil Conservation
      – Federation of European Biochemical Societies
      – Fondazione Telethon
      – Higher Education Funding Council for England (HEFCE)
      – Proceedings of The National Academy Of Sciences (PNAS)
      – Public Library of Science (PLOS)
      – The American Physiological Society
      – The Journal of Cell Biology
      – Institute Pasteur
      – CNRS – University Paris Diderot
      – INGM, National Institute of Molecular Genetics; Milano, Italy
      – Université de Paris VIII, France
      – University of Florida
      – The European Association for Cancer Research (EACR)
      – Ben-Gurion University of the Negev
      – Université de Louvain

    • Per quanto riguarda IEEE, “the world’s largest professional association dedicated to advancing technological innovation and excellence for the benefit of humanity“, è un associazione che conta più di 425.000 membri in più di 160 nazioni, più del 50% dei quali al di fuori degli USA. Dal punto di vista editoriale, l’IEEE pubblica più di 148 pubblicazioni tra Transactions, Journals e Magazines, mentre sponsorizza più di 1.300 conferenze che danno luogo a più di 1.200 atti resi disponibili sulla piattaforma IEEE Xplore. Strano che la più grande associazione tecnologica del mondo, portatrice di interessi editoriali per nulla marginali, si muova “senza dati di validità convergente” così tanto per fare e “senza proporre soluzioni utili”. Certi commenti sembrano confermare che chi li scrive sta dibattendo di questioni che non conosce bene.
      Qui il link al post dedicato al position statement dell’IEEE Board:
      https://www.roars.it/online/anche-lieee-contro-luso-di-indici-bibliometrici-per-la-valutazione-individuale/

    • Il problema sta nella discrezionalità di collocamento delle vie di mezzo. Certo che distinguere tra nature e “il vigile urbano” è semplice.

  6. RR: la “disciplina vigente” è una babele. Oltre alla Legge 240/2010, e’ ancora in vigore – quasi intero, mai abrogato – il D.P.R. 380/1982. Quindi esistono professori di prima e seconda fascia, ma anche professori ordinari e associati. Poi ci sono tante altre norme, tutte vigenti, per fare confusione.

  7. nightwish: bisognerebbe anche mettersi d’accordo su qual è la definizione di qualitá. Se è quella delle ISO, ossia la rispondenza alle richieste del committente/utente, allora qualsia lavoro accettato ha la qualitá che ci si aspetta in rapporto al rango della rivista per cui un lavoro accettato da rivista con basso IF va bene e un lavoro respinto da Lancet non va bene.
    Se per qualitá intendiamo quella della definizione della treccani allora entriamo nel ginepraio in cui si è infilato l’anvur.
    Per semplificare, la BIC e la MONTBLANC, se rispondono alla aspettative dei rispettivi clienti, sono prodotti di qualitá, per le norme ISO.
    Diversamente bisognerebbe fare troppi distinguo, per es. le condizioni di utilizzo per cui in un cantiere o sulla spiaggia meglio la bic, per fare scena in ambulatorio meglio la montblanc!

    • Fermiamoci solo al discorso della ASN, altrimenti andremmo forse troppo in là. Almeno in teoria, la BIC e la MONTBLANC dovrebbero essere valutate da una commissione che valuta la BIC e da una che valuta la MONTBLANC, essendo commissioni che rappresentano i rispettivi clienti. Essendo l’ASN un’abilitazione e non un concorsone, anche se visto dai più come tale, e non avendo le commissioni tempi infiniti per valutare “gli abilitandi”, io personalmente valuterei l’aderenza al SC e la correttezza scientifica, intesa come correttezza metodologica. I contenuti, beh… diventa difficile. Anche perché capita e non di rado che articoli dai contenuti innovativi siano capiti solo a posteriori. Inoltre, non credo sia spulciabile tutta la letteratura in tempi brevi per capire se e quanto un articolo è nuovo rispetto all’esistente. Infine, l’interesse scientifico di chi giudica potrebbe influenzare il giudizio. Nella passata ASN alcune commissioni hanno in effetti considerato l’IF relativo, normalizzato o meno in diverse sue forme come indice di qualità di un lavoro… rimango dell’idea che qualunque indice bibliometrico, anche se può rappresentare un indizio, non possa di per sé garantire sulla qualità di una pubblicazione. Ma ripeto: pensare all’ASN come se fosse un mega-concorsone, tipo tanto per intenderci ad un concorso per titoli simile a quelli per RTD, secondo me è una forzatura.

  8. Mi sembra che Baccini, che ha studiato il problema a fondo,concluda che non esiste un sistema che funziona. Ergo, Anvur e tutta questa perdita di tempo va abolita. Si torni ai concorsi nazionali. Ci sono poi altri.due fattori: 1) i settori non bibliometrici rimangono sempre in un limbo dove tutto è possibile. Nella precedente asn tutti (quasi) abilitati, nei bibliometrici no. Almeno per i rti. 2) anche se abilitati pochissimi saranno i chiamati perché la volontà è di mandare avanti i ric B e A (lavorano.di piu perche ricattabili.e costano meno) e inoltre vi sono già migliaia di abilitati che mai verranno chiamati.

    • Da questo discendono due conclusioni:1) a dispetto di qualsiasi criterio, i settori non bibliometrici rimaranno nell’arbitrio ab aeternum; 2) i migliori cervelli continueranno ad emigrare;3) questa asn è l’ennesima fiera delle illusioni per tenere buono il popolino.

    • “i settori non bibliometrici rimangono sempre in un limbo dove tutto è possibile. Nella precedente asn tutti (quasi) abilitati, nei bibliometrici no. Almeno per i rti”

      Continuiamo con le affermazioni gratuite. In realtà, basta guardare i dati (ad esempio qui: http://tinyurl.com/o2fk69w ) per verificare che non c’è stata, in termini percentuali, alcuna sensibile differenza nelle abilitazioni tra settori bibliometrici e non bibliometrici. Anzi, le percentuali minori di abilitati (parlo di seconda fascia) si registrano proprio tra i non bibliometrici, col 28% (!!) dell’area 14, il 33% dell’area 12 e il 36% dell’area 11.

    • Dai dati emerge che il superamento di una mediana su tre comporta effettivamente una probabilità inferiore di ottenere l’abilitazione in un settore bibliometrico rispetto ad un settore non bibliometrico; nel caso della prima fascia tale differenza risulta particolarmente marcata (27% in un settore non bibliometrico contro 17% in un settore bibliometrico), mentre la differenza è minore, ma pur sempre statisticamente significativa, per la seconda fascia (27% nei settori non bibliometrici contro 23% dei settori bibliometrici).

  9. Esiste qualcuno in grado di togliermi qualche dubbio? Ad esempio: il superamento di tutte e tre le soglie è una condizione necessaria ( ma non sufficiente ) per l’abilitazione scientifica nazionale oppure anche senza il superamento la commissione può esprimere un giudizio positivo? Inoltre perchè in alcuni settori sono più alte le soglie di associato rispetto a quelle di ordinario???? Come è possibile?

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.