Le classifiche di riviste basate sull’Impact Factor aiutano a prevedere l’impatto e l’affidabilità scientifica degli articoli? Pare di no. Inoltre, sono le riviste a più alto IF a collezionare il maggior numero di ritrattazioni. Il blog Retraction Watch documenta i casi di ritrattazione, ma ha poco seguito in Italia. Persino quando si parla di una neo-eletta alla Camera dei Deputati.

In un recente articolo dedicato alle conseguenze dell’adozione di classifiche di riviste, Bjorn Brembs e Marcus Munafo concludono ribadendo che il rango di una rivista è un modesto indicatore previsivo dell’impatto scientifico degli articoli che contiene, ma soprattutto che

journal rank is a moderate to strong predictor of both intentional and unintentional scientific unreliability

Il tema dell’inaffidabilità  dei risultati scientifici è oggetto di una ampia discussione internazionale. Con questa espressione ci si riferisce sia a risultati inaffidabili a causa della variabilità statistica delle stime o di errori, per così dire, genuini, sia a risultati derivanti da condotte fraudolente. Il fenomeno delle ritrattazioni sembra in netta crescita: dallo 0,001% del 2000 al 0,02% del 2011. Il 2011 è stato addirittura chiamato l’anno delle ritrattazioni scientifiche (retraction).

Fig. 1. Andamento temporale del numero di ritrattazioni su riviste scientifiche
(fonte: Brembs and Munafo 2012)

   

 

Secondo i dati passati in rassegna da Brembs e Munafo sono proprio le riviste con più elevato Impact Factor a collezionare il maggior numero di ritrattazioni.

Da un paio di anni Ivan Oransky e Adam Marcus svolgono con il loro blog  Retraction Watch un prezioso lavoro che documenta in modo circostanziato casi di ritrattazione.

John P.A. Ioannidis sostiene che il fenomeno delle ritrattazioni sia il risultato di una modificazione del comportamento degli scienziati che sta facendo perdere alla scienza una delle sue caratteristiche principali: la capacità di autocorreggere i propri errori. La pressione del publish or perish rende poco appetibile l’oscuro ed onesto lavoro di controllo e riproduzione dei risultati già ottenuti.  Spinge inoltre gli scienziati a non pubblicare risultati negativi, dando luogo per questa via a sprechi di risorse non trascurabili. La pressione per aumentare i propri indici citazionali dà luogo a comportamenti opportunistici, individuali e di gruppo (citation cartels). Qualche mese fa proprio Retraction Watch ha dato notizia della  prima ritrattazione per manipolazione di citazioni.

 Any deviation from the principle that seeking the truth has priority over any other goals may be seriously damaging to the self-correcting function of science (Ioannidis 2012)

Questa citazione da Ioannidis potrà suonare troppo old style ai fautori nostrani delle mediane. Ma si tratta di un problema terribilmente serio, ed affrontato seriamente in molti paesi. In Italia non c’è evidenza di un interesse diffuso nel mondo scientifico e nell’opinione pubblica.

Nessuno dei 16 casi di ritrattazione documentati da Retraction Watch per l’Italia sembrano aver destato particolare interesse; e neanche il caso che ha di recente visto coinvolta Ilaria Capua (1), neo-eletta alla camera nelle file di Scelta Civica (2), ha ricevuto eco nell’opinione pubblica.   Forse ci stiamo davvero avviando a passi rapidi verso il declino. Ma lo faremo guidati dai parametri oggettivi di ANVUR.

___________________________

(1) Da Retraction Watch: A six year-old review on bird flu that failed to credit some content from another six year-old review of bird flu is now stamped with an Expression of Concern.

Here’s the notice, from Influenza and Other Respiratory Viruses:

The publishers, editor and authors have noted that the following commissioned Review Article: Ilaria Capua, Dennis J. Alexander, Avian influenza infections in birds – a moving target, Influenza and Other Respiratory Viruses 2007; 1: 11–18 published online in November 2006 did not credit that some of the content of this article had previously appeared in the following Review Article: Dennis J. Alexander, An overview of the epidemiology of avian influenza, Vaccine 2007; 25: 5637–5644 and was not referenced as such. The publisher and editor apologize for not identifying this apparent overlap at the time of publication.

(2) Da Science:

Virologist Ilaria Capua, of the Istituto Zooprofilattico Sperimentale delle Venezie in Legnaro, Italy, will enter the Italian parliament this week for the first time as a newly elected deputy for the Civic Choice party. The party is led by outgoing Prime Minister Mario Monti, who asked Capua to join his crew for her commitment to meritocracy and transparency and for her expertise in science and public health.

 

 

Print Friendly, PDF & Email

27 Commenti

  1. Non credo che il problema sia legato in maniera specifica al IF. Le ritrattazioni potrebbero essere alte per le riviste ad alto IF semplicemente perchè gli articoli ricevono una attenzione maggiore. Ma è chiaro che ci sono riviste il cui IF è alzato artificialmente.

    Tuttavia, in tutti i SSD si conoscono le riviste di maggior prestigio anche se la loro identificazione, in Italia, sarebbe impossibile come si è dimostrato nel redigere le liste di riviste di classe A.

    La bibliometria certamente aiuta ad eliminare le distorsioni più evidenti e i casi limite (che nel recente passato dell’università italiana non sono stati pochi). E’ però chiaro che non si possono prendere i dati bibliometrici sempre per oro colato. Ce ne renderemo conto nei prossimi anni quando gli indicatori bibliometrici dei ricercatori italiani schizzeranno improvvisamente verso l’alto. Scommettiamo?

  2. sono più che certo che le prossime mediane non citazionali saranno estremamente più alte delle attuali (per le citazioni, bisognerà vedere quanto ci vorrà per la costituzione di cartelli efficienti). Che tutto ciò abbia attinenza con la qualità della produzione scientifica, resta da dimostrare.

  3. L’IF è un indicatore utile per discriminare tra riviste ottime, buone, dicrete o mediocri.
    Anche secondo me la relazione con le riviste a IF più alto può essere dovuta al fatto che hanno una maggior visibilità e gli interessi in ballo sono più alti.
    Non mi sembra però che si tratti il fenomeno della ritrattazione sia così clamoroso….

  4. Il primo commento che mi e’ venuto in mente leggendo questo articolo, e’ che dovrebbe essere inserito nella lista di ‘retractions’. E’ un classico articolo strumentale che non analizza niente, e funzionale a gettar discredito su qualunque sistema di valutazione.
    Giusto per esempio si possono leggere commenti di tono diverso per es. http://www.wired.com/wiredscience/2011/08/why-are-scientific-retractions-increasing/ dove si evidenzia che l’aumento delle ritrattazioni puo’ essere un effetto osservativo, ovvero al fatto che le “magagne” negli articoli si scoprono molto meglio ora che non anni fa. E il probema non e’ tanto la ritrattazione, ma se il sistema e’ in grado di correggersi.
    Un;altra interessante analisi e’ http://iai.asm.org/content/79/10/3855.full

    Mi sembra strumentale anche il caso di Ilaria Capua, dove a leggere la motivazione, sicuramente grave (e’ un plagio), si tratta tuttavia di aver ricopiato parte di un articolo di uno degli *stessi* autori, che quindi non inficia assolutamente il contenuto e importanza del lavoro.

    • Suggerisco a Giovanni Golene di leggersi i due articoli incriminati. Inoltre, in un caso c’era un autore, nel secondo ce ne sono due. Bisognerebbe verificare bene il contributo del “nuovo” autore prima di parlare di strumentalità. Per il resto, se evidenziare alcune criticità dell’analisi bibliometrica, peraltro ben note al di fuori della provincia italiana, dev’essere considerato come una mossa politica finalizzata a distruggere la valutazione, allora c’è davvero poco da dire.

    • Giovanni Golene: “si tratta tuttavia di aver ricopiato parte di un articolo di uno degli *stessi* autori, che quindi non inficia assolutamente il contenuto e importanza del lavoro.”
      __________________
      Dissento. Che parte del contenuto del secondo lavoro sia ricopiato inficia sicuramente la sua importanza. Tanto più alla luce del fatto che sono cambiati gli autori. Per fare un esempio, nella VQR italiana potrebbe rientrare nei casi che ricevono una penalità pari a -2 punti (plagio o frode).

    • Se avesse avuto la bontà di leggersi i link segnalati nell’articolo avrebbe scoperto che con questo post la redazione intendeva segnalare due articoli dedicati ad analizzare (i) le ragioni per cui le ritrattazioni sembrano in costante aumento; (ii) il “sistema” sembra sempre meno in grado di autocorreggersi. Uno dei due articoli (quello da cui sono tratte le figure) è una ampia e recente rassegna su questi temi. Non vedo cosa ci sia da ritrattare.

      Quello di Ilaria Capua è un caso di autoplagio. Come si fa a stabilirne la gravità? In assenza di regole (leggi regole, non leggi!) condivise, è difficile. E l’Italia è uno dei pochi paesi europei che di regole non ne ha, come si può leggere qua http://www.sciencedirect.com/science/article/pii/S014067361360759X.

      Uno tra i più noti economisti europei (Bruno Frey) ci ha rimesso il posto per un autoplagio http://olafstorbeck.blogstrasse2.de/?p=949 [Qua altri casi http://plagiarism.repec.org/%5D

      Nessun discredito su qualunque sistema di valutazione. Un warning: è plausibile che l’adozione di sistemi di valutazione prevalentemente quantitativa siano un potente incentivo a comportamenti scorretti. Utile ricordarlo nella nostra provincia innamorata della bibliometria fai-da-te.

    • La seconda analisi citata da Giovanni Golene, non solo conferma quanto riportato nel post, ma suggerisce che la correlazione tra “retraction index” e IF (che viene confermata) è una ragione in più per essere cauti nell’uso di misure bibliometriche come l’IF:
      ________________________________
      “Alternatively, publications in high-impact journals have increased visibility and may accordingly attract greater scrutiny that results in the discovery of problems eventually leading to retraction. It is possible that each of these explanations contributes to the correlation between retraction index and impact factor. Whatever the explanation, the phenomenon appears deserving of further study. The relationship between retraction index and impact factor is yet another reason to be wary of simple bibliometric measures of scientific performance, such as impact factor. ”
      (Retracted Science and the Retraction Index, http://iai.asm.org/content/79/10/3855.full)

  5. Suggerisco a Giovanni Golene di leggersi i due articoli incriminati. Inoltre, in un caso c’era un autore, nel secondo ce ne sono due. Bisognerebbe verificare bene il contributo del “nuovo” autore prima di parlare di strumentalità. Per il resto, se evidenziare alcune criticità dell’analisi bibliometrica, peraltro ben note al di fuori della provincia italiana, dev’essere considerato come una mossa politica finalizzata a distruggere la valutazione, allora c’è davvero poco da dire.
    Giovanni Golene: “si tratta tuttavia di aver ricopiato parte di un articolo di uno degli *stessi* autori, che quindi non inficia assolutamente il contenuto e importanza del lavoro.”
    __________________
    Dissento. Che parte del contenuto del secondo lavoro sia ricopiato inficia sicuramente la sua importanza. Tanto più alla luce del fatto che sono cambiati gli autori. Per fare un esempio, nella VQR italiana potrebbe rientrare nei casi che ricevono una penalità pari a -2 punti (plagio o frode).
    L’IF è un indicatore utile per discriminare tra riviste ottime, buone, dicrete o mediocri.
    Anche secondo me la relazione con le riviste a IF più alto può essere dovuta al fatto che hanno una maggior visibilità e gli interessi in ballo sono più alti.
    Non mi sembra però che si tratti il fenomeno della ritrattazione sia così clamoroso….
    Non credo che il problema sia legato in maniera specifica al IF. Le ritrattazioni potrebbero essere alte per le riviste ad alto IF semplicemente perchè gli articoli ricevono una attenzione maggiore. Ma è chiaro che ci sono riviste il cui IF è alzato artificialmente.

    Tuttavia, in tutti i SSD si conoscono le riviste di maggior prestigio anche se la loro identificazione, in Italia, sarebbe impossibile come si è dimostrato nel redigere le liste di riviste di classe A.

    La bibliometria certamente aiuta ad eliminare le distorsioni più evidenti e i casi limite (che nel recente passato dell’università italiana non sono stati pochi). E’ però chiaro che non si possono prendere i dati bibliometrici sempre per oro colato. Ce ne renderemo conto nei prossimi anni quando gli indicatori bibliometrici dei ricercatori italiani schizzeranno improvvisamente verso l’alto. Scommettiamo?

    SI TRATTA DI UN CASO DI FASTIDIOSO PLAGIO :-)

    • Non mi sembra che le commissioni dell’ASN prendano la bibliometria per oro colato, visto che il loro giudizio si basa anche su altri parametri e quello delle mediane e’ solo uno tra questi.

    • Non è esatto, ci sono commissioni rigidamente medianiche perfino in settori concorsuali umanistici. Ad esempio, diritto tributario:
      “la commissione attribuirà l’abilitazione esclusivamente ai candidati che abbiano soddisfatto la duplice condizione di aver riportato un favorevole giudizio di merito ed aver superato gli indicatori di impatto della produzione scientifica”.

    • Non della bibliometria, poveretta, che c’entra? La bibliometria non andrebbe usata in via esclusiva per il reclutamento individuale, è stato detto e stradetto. La bibliometria medianica è un’esclusiva italiana, il paese arrivato ultimo (e si vede) a occuparsi di bibliometria e non esiste altro paese al mondo che usi un criterio simile. Nulla di strano che le commissioni, comunque, adottino questi criteri, anche per sveltire le operazioni. Qui non si critica la bibliometria, ma il suo uso errato. Una chiave inglese è utilissima ma se la tiro in testa a qualcuno posso far male. Del resto è lei ad aver affermato che le commissioni derogano, io mi limito a segnalare che non è sempre vero.

  6. Guardate che il lavoro di Capua e’ una review… E l’editore si lamenta del fatto che il lavoro non sia stato citato, non del fatto che venga usato parte del materiale (in una review ci sta…). Naturalmente gli autori non sono stati trasparenti, ma quanto alla mia critica e’ relativa non al fatto, ma come questo sia stato trattato nell’articolo, associandolo ai ben piu’ gravi casi di ritrattazione
    “Nessuno dei 16 casi di ritrattazione documentati da Retraction Watch per l’Italia sembrano aver destato particolare interesse; e neanche il caso che ha di recente visto coinvolta Ilaria Capua (1), neo-eletta alla camera nelle file di Scelta Civica (2), ha ricevuto eco nell’opinione pubblica”

    Se non e’ strumentale questo… E questo indipendente dalla Capua che non so chi sia (scientificamente, facendo io altro, e politicamente).

  7. Gli articoli che ho indicato, insieme a quelli riportati nell’articolo, dovrebbero evidenziare che la questione ‘retractions’ non puo’ essere bollata semplicemente come inaffidabilita’ delle riviste scientifiche e dei ricercatori pressati dal dovere di pubblicare, come invece in maniera molto forte (e quindi strumentale) viene suggerito nell’articolo che inizia con:
    “Le classifiche di riviste basate sull’Impact Factor aiutano a prevedere l’impatto e l’affidabilità scientifica degli articoli? Pare di no.”

    e finisce con: ” Forse ci stiamo davvero avviando a passi rapidi verso il declino. Ma lo faremo guidati dai parametri oggettivi di ANVUR.”

    Insomma un chiaro stravolgimento della realta’ al solo scopo di sostenere che il metodo delle mediane non funziona….

    • Dove ha letto la parola mediana nel testo? La critica è a quelli che i bibliometrici nostrani chiamano parametri oggettivi. Che di oggettivo non hanno nulla. Usare la bibliometria è un mestiere e in genere chi lo fa quel mestiere è abbastanza accorto nel definire bene limiti tecnici e interpretativi degli indicatori. In Italia ANVUR e propaganda correlata hanno attribuito virtù taumaturgiche agli “indicatori oggettivi”, non solo alle mediane; per certi versi la bibliometria fai-da-te della vqr è peggiore delle mediane dell’ASN. Questa è la ragione per cui ROARS ritiene assolutamente necessario usare tutti gli argomenti che circolano in letteratura per diffondere nella comunità scientifica un po’ di anticorpi contro la retorica della bibliometria oggettiva.

      Sul fatto della gravità delle ritrattazioni. Ripeto: definire una scala di gravità delle ritrattazioni senza avere un codice di comportamento non è possibile. Il fatto che lei giudichi meno grave il caso della Capua rispetto ad altri è solo la sua opinione personale (e come tale rispettabile). In altri contesti comportamenti simili hanno dato luogo a sanzioni durissime da parte della comunità scientifica. Il post semplicemente dice che la comunità scientifica italiana (e l’opinione pubblica) non è molto sensibile al tema. E interpreta questo come un segno di possibile declino (opinione della redazione di roars), da cui i parametri oggettivi di ANVUR sicuramente non ci salveranno.

    • beh, per esempio in “Questa citazione da Ioannidis potrà suonare troppo old style ai fautori nostrani delle mediane.”
      Il tono dell’articolo e’ quello di voler smontare il sistema di valutazione che usa ANCHE la bibliometria (e potrebbe starmi anche bene) in maniera strumentale usando le retractions.

      Il fatto infine che la comunita’ scientifica italiana non sia sensibile al tema non mi sembra risponda al vero. Forse in economia, non certo altrove in particolare in materie scientifiche.

  8. Quando invece nel calcolo degli indicatori (comunque essi siano elaborati) si terrà conto del numero degli autori e delle autocitazioni? Ci sono colleghi con oltre il 50% di autocitazioni!!! Potrebbe essere suffieciente stabilire un limite “fisiologico”, intendo intorno al 15-20% delle citazioni totali, e tagliare quelle eccedenti. Per l’ impact factor, è certamemte un indicatore della qualificazione delle sede di pubblicazione, che è solo uno dei fattori di merito per un lavoro scientifico, nulla però ci dice sulla qualità del lavoro stesso.
    Domanda: nel calcolo dell’impact factor vengono decurtate le autocitazioni proveniente dalla rivosta stessa…?

  9. Buonasera,
    volevo precisare che i due articoli oggetto della vostra attenzione sono delle review uscite nel 2007 quando TUTTE le riviste chiedevano review sugli stessi argomenti relativi all’H5N1.
    Per chi non lo sapesse quando si scrivono review a due mani, gli autori si dividono gli argomenti e il risultato finale è un collage dei due testi. Dennis Alexander aveva scritto un’altra review poco prima, ed ha usato in parte lo stesso testo predisposto per la prima review per compilare la sua parte della seconda.
    Sarebbe stato buffo che Dennis avesse usato un testo diverso (magari con altri contenuti) per trattare i medesimi argomenti… Rimane il fatto che non si è autocitato e non posso dire se questa sia stata una svista oppure un’azione voluta. In ogni caso l’accusa di self-plagiarism (peraltro non definita ne regolamentata dalla rivista) era rivolta a lui e non a me.
    Posso solo precisare che non c’è stata alcuna malafede nè da parte sua (non aveva certo bisogno di una review in più, anche perchè stava per andare in pensione) nè da parte mia, ed invito gli autori a chiedere alla rivista copia dello scambio epistolare che ripercorre le tappe di questa vicenda, soprattutto relativamente al fatto delle pressioni che abbiamo ricevuto per scrivere il pezzo in un momento di emergenza internazionale. Ci hanno supplicato di scrivere una review per il primo numero di IRV, ben consapevoli che review simili erano già uscite.
    Comunque voi parlate di me e non di lui. Di certo non posso essere accusata di self-plagiarism di un pezzo di cui non ero autrice… altrimenti che “self” sarebbe?

    Sono a vostra disposizione per qualsiasi chiarimento, e comunque sottolineo che NON si tratta di un caso di ritrattazione (anzi al limite del contrario, ovvero di auto-ripetizione da parte di uno degli autori).

    Saluti e grazie a Sylvie Coyaud per avermi segnalato il problema, almeno ho potuto dire la mia.

    Ilaria Capua

    • Ringrazio Ilaria Capua a nome della redazione per l’intervento, e Sylvie Coyaud per la segnalazione.
      Il caso di Ilaria Capua e coautore ci è sembrato interessante non per i suoi contenuti, ma, come scriviamo chiaramente nel post, perché significativo di una scarsa sensibilità ai temi della deontologia scientifica nel dibattito pubblico italiano.
      Se un semplice post di Roars contribuirà ad un dibattito sul tema, la Redazione avrà raggiunto il suo scopo.

  10. Leggendo l’articolo, e conoscendo il lavoro di retraction watch (e la discussione emersa sin da Ioannidis Plos Med 2005), mi rimangono alcuni dubbi.

    Condivido e stimo il vostro intento di decostruire i miti attorno ad una valutazione bibliometrica ingenua, ma:

    È possibile affrontare la tematica della ritrattazioni senza scendere nello specifico degli ambiti di ricerca? E quindi dei motivi per cui un articolo può essere ritrattato e delle modalità per scoprire plagi/errori? Siamo sicuri siano omogenei e confrontabili?

    O forse addirittura bisogna spingersi a guardare caso per caso, prima di parlare di “passi rapidi verso il declino”? Vedi il caso ENCODE e tutti gli altri in cui la ritrattazione è contestata, oppure, d’altro canto, i casi in cui si sa di articoli non solidi ma mai ritrattati? E i casi poi in cui articoli “sbagliati” ma spunto di ottima ricerca per un sacco di anni (mi vengono in mente due articoli di May, quello sul rapporto complessità/stabilità e quello sulla perdita di biodiversità in caso di estinzioni di massa che, pur essendo probabilmente “sbagliati”, hanno guidato e prodotto ottima ricerca)?

    E, dato che la tendenza che vede il numero di articoli ritratti è globale, stiamo veramente sostenendo che la produzione scientifica mondiale stia per questo “declinando”? E qual’è il metro di giudizio, di grazia?

    Cara Vulvia: siamo pronti a dire che il quartetto di riviste con retraction factor più alto (NEJM, Science, Cell, Nature) non è per questo autorevole o ha perso autorevolezza?

    Per quale motivo viene percepito dalla redazione come informazione essenziale che Ilaria Capua, anni dopo la review in questione, abbia deciso di candidarsi con un certo partito politico e non, ad esempio, che l’anno prima della review sull’H5N1 ne avesse pubblicato open access il primo ceppo su genbank (http://www.sciencemag.org/content/314/5801/918.full)?

    Infine, sul rapporto fra ritraction factor, IF e autorevolezza della rivista: a me pare che i dati raccolti dimostrino più l’esistenza di rapporti non triviali fra i tre fattori, che occorre investigare e capire, che l’inapplicabilità tout court dell’IF.

    Scusate la mole di domande…

    • Vorrei rassicurare gvdr che il post sulle ritrattazioni è per l’appunto un post, non un articolo scientifico sul tema delle ritrattazioni. E questo fa una grande differenza. Segnala ai lettori di Roars alcuni articoli recenti e (a parere della redazione) importanti sul tema e trae alcune conclusioni non su casi specifici o sulle ritrattazioni, ma sul dibattito pubblico sul tema in Italia.

      La questione del declino. Confesso che la cosa mi turba. Negli ultimi vent’anni si è detto da ogni parte che università e ricerca italiane fanno schifo. ANVUR e i suoi “parametri oggettivi” sono stati presentati come la panacea di tutti i mali. Io credo invece che proprio gli incentivi ai comportamenti, impliciti nella bibliometria-fai-da-te dell’ANVUR (assenza di conteggio frazionario per autore, liste di riviste etc.), quando introdotti in un contesto in cui non c’è molta sensibilità sul tema della integrità della condotta scientifica, possano essere molto pericolosi. Come si può leggere nel post odierno di Patrizio Dimitri.

      Da dove ricavo che il tema dell’integrità non è centrale nel dibattito? L’ho già scritto, ma forse è meglio se lo rifaccio più esplicitamente: da questa cartina per esempio pubblicata sull’ultimo numero di Lancet dove si vede che l’Italia è uno dei paesi europei senza codici di condotta.

      Integrity guidance

      Inoltre non mi sembra di leggere spesso sui giornali e sui siti specializzati interventi sul tema. E sono molto preoccupato dal leggere su Retraction Watch commenti di questo tenore:

      Wow, it sounds like Italian senior authors do not feel like they hold any responsibility for the correctness of a publication. A rather frightening fact that I need to keep in mind.”
       
      You can’t expect the journal to do this – misconduct is an institutional matter and for good reason; would you want to get into the intricacies of the power / personal struggles within an Italian University? U Milan should undertake an investigation but I would be astonished if such an investigation were undertaken in a transparent way.”

      Gvdr domanda: Dato che la tendenza che vede il numero di articoli ritratti è globale, stiamo veramente sostenendo che la produzione scientifica mondiale stia per questo “declinando”? E qual’è il metro di giudizio, di grazia?

      Nessuno sostiene nulla sul trend della produzione scientifica globale. Il problema se lo è post di recente l’Economist, ma non in relazione alle ritrattazioni.

      gvdr domanda: Cara Vulvia: siamo pronti a dire che il quartetto di riviste con retraction factor più alto (NEJM, Science, Cell, Nature) non è per questo autorevole o ha perso autorevolezza?

      Non so che ne pensa Vulvia. Io direi: sembra che ci sia evidenza di una relazione positiva tra IF delle riviste e numero di retractions. Quali sono le conseguenze di questo? E le cause? Allo stato le migliori riflessioni disponibili mi sembrano quelle contenute nei due articoli citati nel post. Leggerò quanto uscirà nei prossimi mesi sul tema.

      gvdr scrive: Infine, sul rapporto fra ritraction factor, IF e autorevolezza della rivista: a me pare che i dati raccolti dimostrino più l’esistenza di rapporti non triviali fra i tre fattori, che occorre investigare e capire, che l’inapplicabilità tout court dell’IF

      In effetti sul’inapplicabilità dell’IF in molti dei contesti (direi tutti o quasi) nei quali viene applicato in Italia c’è così tanta letteratura che tirare in ballo le ritrattazioni appare superfluo. E la colpa non è dell’IF o del buon Garfiled che l’ha inventato. Così, come scrive Antonio Banfi, non è colpa del costruttore di chiavi inglesi, se qualcuno le usa per picchiare sulla testa i passanti.

      gvdr ancora: Per quale motivo viene percepito dalla redazione come informazione essenziale che Ilaria Capua, anni dopo la review in questione, abbia deciso di candidarsi con un certo partito politico e non, ad esempio, che l’anno prima della review sull’H5N1 ne avesse pubblicato open access il primo ceppo su genbank?

      Perché mette in relazione un fatto proprio della comunità scientifica (la questione dell’expression of concern) con la dimensione/visibilità pubblica . Se avessimo scritto un post sul tema dell’ open access avremmo potuto citare come esempio significativo e riconoscibile dai lettori dai lettori la questione del ceppo su genbank. Molto probabilmente se in questo post non ci fosse stato il riferimento alla Capua, forse nessuno se lo sarebbe filato…

  11. In effetti, mi pare che ci siano tutti gli elementi per una retraction di questo articolo da parte della redazione. E così, per relazione di correlazione/causalità, non potrà che aumentare l’IF di roars ;-)

  12. E, ultima domanda, voi dite che retraction watch ha poco seguito. Come lo avete stimato? Per quel che ne so, e quindi limitandomi al mio settore che copre una certa parte di matematica, di genetica e di ecologia, il blog e la tematica hanno avuto e ancora suscitano un certo interesse…

Comments are closed.