Un giornalista di Science si è finto un autore e si è messo in contatto con una delle agenzie che vendono authorship. Gli è stato offerto il coautoraggio di un articolo sul cancro (14.800 dollari) accettato dalla rivista Journal of Biochemistry and Cell Biology (Elsevier) o quello di primo autore dello stesso articolo (26300 dollari). Il giornalista non ha accettato, ma controllando la rivista qualche tempo dopo ha visto uscire l’articolo che gli era stato proposto con due nomi che a suo tempo non c’erano. Fra le molte domande che sorgono quando si assiste agli effetti distorsivi che l’applicazione massiva di metodi di valutazione quantitativa ha su interi sistemi scientifici risulta naturale chiedersi cosa abbia tutto ciò a che fare con la scienza e con il progresso delle conoscenze.

 

A ghost author is someone who is omitted from an authorship list despite qualifying for authorship. A guest or gift author is someone who is listed as an author despite not qualifying for authorship
(PERK, tratto da Elsevier)

In questi anni abbiamo assistito alla crescita esponenziale delle pubblicazioni di autori con affiliation in Cina. Nel 2012 sono quasi 200.000 le pubblicazioni censite da Web of Science. 6 volte quelle prodotte nel 2000. La Cina è divenuta così la seconda potenza mondiale come quantità di lavori scientifici censiti da WOS.

Ma a che prezzo?

I ricercatori cinesi sono stati sottoposti negli anni passati a una incredibile pressione da parte del governo. Per poter avanzare nella carriera o migliorare la propria condizione stipendiale è necessario produrre un dato numero di lavori indicizzati dallo Science Citation Index, ma contano solo quelli in cui si ha il ruolo di corresponding o primo autore. Le politiche di incentivo cinesi sono dunque per lo più  incentrate sulla quantità piuttosto che sulla qualità.

All’incremento nella produttività non ha fatto però seguito  una diffusione della cultura dell’etica della pubblicazione, per cui sono risultati frequenti i casi di plagio, di confezionamento di risultati non testati, di ricerche non originali.

An unhealthy research environment in China is being driven by several factors. In many research-intensive universities and institutions, competitive research grants constitute oversized fractions of their budgets, providing an economic incentive for ethical violations. Misconduct is also inadvertently encouraged by the use of quantitative rather than qualitative measures of merit, which can lure young scientists to climb the academic ladder by stepping outside ethical boundaries. Performance-based subsidiary income is a policy that can entice scientists to act unethically. And there is a talent hierarchy in academia that encourages scientists to overblow their findings.
(Wei Yang, Presidente della National Natural Science Foundation of China)

L’ultima novità è quella del commercio del ruolo di autore. Una indagine durata 5 mesi condotta da Science ha portato alla luce (per il mondo occidentale, perché ai ricercatori cinesi il tema era già ben noto)  un mercato nero di compravendita di authorship che coinvolge singoli ma anche e soprattutto ben organizzate agenzie (l’elenco è reperibile attraverso il motore di ricerca cinese Baidu inserendo come chiave di ricerca “publish SCI paper”).

Un giornalista di Science si è finto un autore e si è messo in contatto con una delle agenzie che vendono authorship. Gli è stato offerto il coautoraggio di un articolo sul cancro (14.800 dollari) accettato dalla rivista Journal of Biochemistry and Cell Biology (Elsevier) o quello di primo autore dello stesso articolo (per la modica cifra di 26300 dollari). Il giornalista non ha accettato, ma controllando la rivista qualche tempo dopo ha visto uscire l’articolo che gli era stato proposto con due nomi che a suo tempo non c’erano. Alla richiesta agli autori se avessero dovuto pagare per fare inserire i propri nomi nell’articolo, questi hanno negato, alla richiesta di spiegazioni fatta ad Elsevier, anche tenendo conto di quello che è il codice etico dell’editore questi ha risposto che a quel tempo l’articolo non era ancora stato accettato definitivamente e che quando era stato risottomesso erano apparsi due nuovi nomi fra gli autori che erano sfuggiti ai revisori e all’editor.

Questa pare essere solo la punta dell’iceberg di una serie di cattive pratiche: dalla traduzione di lavori pubblicati originariamente in cinese per la risottomissione a riviste internazionali, all’acquisto di paper preconfezionati sulla base di dati inventati, all’assemblamento mercenaio di paper da parte di ghostwriter.  Un fenomeno preoccupante  i cui costi variano da alcune centinaia a decine di migliaia di dollari. Tutto pur di stare nel mainstream, pur di avere i numeri.

Le agenzie intervistate (solo Science ne ha trovate 27) hanno ovviamente negato sottolineando il loro ruolo di puro supporto linguistico,  o di copyediting della pubblicazione.

L’indagine di Science cita però anche alcuni segni di cambiamento. Molti scienziati cinesi autorevoli sono fra i sostenitori (e firmatari di DORA) e il Ministero dell’educazione è alla ricerca di nuovi indicatori quantitativi diversi da IF, come ad esempio il numero delle citazioni o il numero di brevetti (ma non si rischia di nuovo di scatenare comportamenti adattativi?). Molte riviste di fronte ad autori cinesi chiedono ora dettagli sulle persone, le affiliazioni e sul ruolo avuto da ciascuno degli autori nella stesura dell’articolo, altre riviste chiedono che uno degli autori si faccia garante dell’integrità del lavoro sottomesso, alcune riviste cinesi avvisano gli autori di non avere niente a che fare con agenzie di vendita di articoli. Certo è che fino ad ora nessuna delle agenzie di compravendita e nessuno dei ricercatori che se ne sono serviti hanno dovuto subire le conseguenze di questi comportamenti scorretti. Il rischio che il marchio di infamia si allarghi anche a coloro che fanno (e comunicano) ricerca  seriamente è alto.

Fra le molte domande che sorgono quando si assiste agli effetti distorsivi che l’applicazione massiva di metodi di valutazione quantitativa ha su interi sistemi scientifici risulta naturale chiedersi cosa abbia tutto ciò a che fare con la scienza e con il progresso delle conoscenze.

Send to Kindle

22 Commenti

  1. Nel 2012, dunque subito dopo l’introduzione delle mediane bibliometriche ASN, il numero di articoli indicizzati in PubMed (http://www.ncbi.nlm.nih.gov/pubmed) con affiliazione italiana si è impennato come mai nella decina di anni precedente: +10,2%, a fronte di un 5% in media all’anno (e di un 5,3% in media in quell’anno per Germania, Francia e UK). Nel 2013 la tendenza sembra la medesima, anche se i numeri sono ancora provvisori dati i tempi di indicizzazione del database.
    Più in generale, la ricerca biomedica sia clinica che preclinica, anche e soprattutto in occidente, soffre a causa di vari fattori ancora poco studiati che rendono la magigor parte dei risultati inaffidabile e non riproducibile (Cosentino M. Sperimentazione sugli animali e riproducibilità dei risultati: l’elefante nel laboratorio? – http://unibec.wordpress.com/2014/02/05/sperimentazione-sugli-animali-e-riproducibilita-dei-risultati-lelefante-nel-laboratorio/). Le conseguenze possono essere evidenti e drammatiche (Patitucci D. Cuore, studio UK accusa: migliaia di morti in Ue per linee guida basate su dati falsi. Il Fatto Quotidiano (edizione online), 1 marzo 2014 – http://www.ilfattoquotidiano.it/2014/03/01/cuore-studio-uk-accusa-migliaia-di-morti-in-ue-per-linee-guida-basate-su-dati-falsi/891975/), ma il danno maggiore è probabilmente legato all’indebolimento delle basi stesse su cui si fonda globalmente il sistema della ricerca scientifica e del progresso che attraverso di essa è possibile perseguire. Prego chiunque fosse interessato ad approfondire questi temi eventualmente anche attraverso l’avvio di progetti collaborativi di contattarmi presso la mia Università.

  2. Però qualcosa dai cinesi possiamo impararla: vedete, loro contano solo il primo autore o il corresponding author, da noi invece contano esattamente alla stessa maniera il primo autore e l’ottavo su una lista di 20. Ci sono intere carriere costruite buttando il nome in mezzo alle author list con escamotage politici. L’h-index non fa differenza fra un primo autore e uno che si e no ha letto l’articolo. Queste cose andrebbero migliorate in futuro. Come giustamente fatto notare da Cosentino, il numero di articoli prima della ASN è aumentato a dismisura (nella mia università lo si è visto ad occhio…). Ma allora perchè usare l’indice h contemporaneo che favorisce ancora di più i furbi dell’ultimo minuto??
    Andrebbero contati solo gli articoli a primo nome e l’indice h + citazioni calcolati solo su questi!

  3. Qualunque metodo di selezione/valutazione adottiamo, ci saranno sempre degli escamotage. Che gli italiani improvvisamente abbiamo cominciato a pubblicare probabilmente significa che prima non valeva la pena, era più utile essere figlio di qualcuno, biologicamente o accademicamente. E allora, invece di limitarsi a qualche abstract per convegnetti nazionali, si pubblica. Che così tanti ricercatori siano riusciti a imbrogliare tanti editorial board mi sembra francamente improbabile…

    • Non è che gli italiani abbiano cominciato solo ora (e tuttavia il grafico mostrato da Sylos Labini è potenzialmente fuorviante, dato che mostra numeri assoluti e non il confronto con la quantità totale di articoli, che comunque aumenta ovunque, quindi non si posono semplicisticamente mostrare numeri assoluti, bensì percentuali e raffronti tra ambiti omogenei).
      E’ invece vero che c’è stata una corsa alla publbicazione e all’autoraggio, con possibili conseguenze (tutte da studiare) in termini di:
      * aumento netto del numero di paper
      * forse anche aumento del numero di autori per paper (da studiare)
      * forse anche aumento del nuemro di riferenze per paper (da studiare)
      E’ noto che esistono reti di ricercatori che si citano reciprocamente (casi anche documentati) ed è nell’esoerienza comune che negli ultimi mesi in Italia c’è stato molto fermento a riguardo. Chi ha gli strumenti dovrebbe analizzare le eventuali conseguenze concrete.
      A proposito del numero di paper, poi, c’è il vecchio tema della “salami publbication”, ovvero la frammentazione del lavoro in più pubblicazioni, ad esempio ripubblicando la stessa casistica con due-tre soggetti in più o in meno, con un taglio lievemente differente. Pratica nota e comune in biomedicina.
      E poi c’è lo sterminato e sommerso mondo della fabbricazione di risultati, che specie in ricerca biomedica preclinica è ignoto e tutto da esplorare (vedi mio precedente commento).

    • E pensare che gli articoli pubblicati prima del 1996 in genere sono penalizzanti ai fini della ASN.

  4. D’accordo, ma mi riferivo al primo commento di Cosentino (per esempio dal tuo grafico l’eccesso del 2012 non si percepisce, avevo guardato anch’io su SCImago per verificare i dati).
    Se c’è stata quell’impennata (che, dati i tempi di pubblicazione, riguarda anche articoli accettati nel 2011), non è detto, come pare sottinteso, che si scrivano solo paper falsi o che si comprino authorship.
    E che si pubblichino trial che sovrastimano gli effetti clinici di un trattamento non è certo perché qualcuno passi l’abilitazione, vale molto di più il farmaco venduto (il che sottintende un problema etico di fondo, senza dubbio: immagino che su questo ci possiamo trovare d’accordo).

    • E’ che bisogna probabilmente distinguere tra settori bibliometrici e non bibliometrici. Inoltre le cienze biologiche e la medicina sonoanche tra i settori eticamente più a rischio, per molti motivi.

  5. Ringrazio gli autori, per gli interessanti spunti forniti. (ancora non ero arrivato a immaginare una compravendita di authorship).
    Secondo me, si dovrebbe iniziare a pubblicare un elenco di comportamenti non etici di alcune riviste/conferenze. Secondo me, un journal che permette la pubblicazione di un paper con autori diversi da quelli della prima submission, non svolge propriamente il proprio servizio.
    In questo senso mi farebbe piacere sapere se esistono siti web o gruppi che raccolgono “malpractices” di vari journal. Da parte mia posso contribuire con un elenco di esperienze sfortunate in ambito computer science. Chi interessato mi puo` contattare.

    Enrico

    • Capita però di aggiungere uno (o più) coautori in casi di ampliamento del lavoro o di perfezionamento alcuni suoi aspetti, proprio per rispondere alle osservazioni dei revisori. Mi pare in questo comportamento non ci sia niente di scorretto… Attenzione a non fare di tutte le erbe un fascio.

  6. Esisteva un sito che si occupava di fake conferences, ma è stato spento (se non erro per una causa da parte di uno degli organizzatori).
    Io riesco a immaginare che la lista degli autori possa cambiare leggermente se vengono richieste modifiche maggiori, ma distinguere la frode può non essere semplice.
    Un altro punto di partenza è questo: http://www.nature.com/news/publishers-withdraw-more-than-120-gibberish-papers-1.14763 (dove si vede come il meccanismo primo della peer review può fallire, ed è computer science) mentre riguardo le malpractice degli autori: http://retractionwatch.com (e qui si vede come il meccanismo della pubblicazione scientifica implementa un meccanismo di controllo di qualità seppure ex post).

    A me pare che il grosso dei problemi derivi dai pari, più che dagli strumenti per valutarli (che se l’etica non c’è, possono indirizzare verso un tipo di trucco piuttosto che un altro).

    • Ocio, senza dubbio il problema origina primariamente dai pari, cioé da noi. Ma i comportamenti sono dettati da pressioni ambientali, tra cui:
      * la competizione per i finanziamenti
      * la pressione a pubblicare per carrierismo
      * il mercato della pubblicistica scientifica (un mercato da 20 limiardi di dollari/anno su scala globale, stimano alcuni)
      E dunque attenzione, dato che l’incapacità di gestire l’autonomia e l’indipendenza qui in Italia ci ha condotto a al punto che ci hanno scippato l’autonomia e la democrazia trasformando gli atenei in aziende e ora manovrando per tagliare e chiudere, penalizzando professori e ricercatori (e quindi anche gli studenti).
      Attenzione, dico, a indicare quali unici responsabili i ricercatori non in grado di autogovernare la ricerca scientifica e la sua pubblicazione, quando nella realtà stiamo assistendo alla degenerazione connessa all’applicazione delle leggi del mercato alla ricerca scientifica. Che non assistiamo a una colpevolizzazione dei ricercatori come premessa al loro inquadramento in sistemi aziendalistici ipercompetitivi.
      E’ dunque necessario lavorare sul fronte della formazione etica dei ricercatori, ma anche sul fronte del rifiuto dell’aziendalizzazione della ricerca, che può essere ottenuto prima di tutto con il mantenimento di un preponderante impegno pubblico nei finanziamenti e con la difesa dell’autonomia e della libertà della ricerca (che necessariamente deve tollerare un minimo di fannullonismo, che la comunità dei ricercatori deve essere in grado di controllare e gestire, col che si ritorna all’esigenza di un’etica della ricerca).
      Insomma, non se ne esce: se non siamo in grado di occuparci noi di noi stessi, se ne occuperà qualcun altro e con ogni probabilità non sarà piacevole.

  7. Io abbastanza d’accordo, ma in particolare sull’ultima frase non sono certo che quel “qualcun altro” sia un alieno.
    E lascerei fuori la questione dei settori non bibliometrici, che in effetti merita ragionamenti diversi.
    Premetto che per me la scelta di 3 parametri che possono adeguarsi a diversi stili di diffusione dei risultati (dovendone passare 2 su 3) pare molto meglio del caso cinese dove il parametro è 1.

    Se guardiamo al passato, i risultati scientifici che ora consideriamo eccellenti non sono spesso nati in una struttura accademica come la conosciamo (c’era gente che lavorava in solitudine, viveva di rendita o di lezioni private o di fondi militari o di chissà cos’altro).
    Per cui quel che ora consideriamo come essenziale per la ricerca non è detto che lo sia sui tempi veri della scienza, che non sono quelli della carriera di un singolo. Ci metterei anche i nostri settori disciplinari/concorsuali, tra gli artefatti che ci siamo creati noi e che forse non rispondono esattamente ad un’esigenza della ricerca (ma sono sostituibili, e se sì con cosa?).
    Nel frattempo pochi ambiti ormai permettono ricerche a basso costo, magari in solitudine (penso a una parte della matematica), e qualcuno le altre ricerche dovrà pagarle, e d’accordissimo che il finanziamento pubblico è la strada che potrebbe garantire maggiore autonomia. Potremmo quindi pretendere di essere trattati come dei religiosi che fanno quel che fanno senza particolari verifiche, ma mi sa che non funziona, niente 8×1000 per noi. Quindi? La soluzione ideale sarebbe interna, ovviamente: etica e responsabilità… ma ogni tanto ho l’impressione che siamo un po’ come i senatori chiamati a votare sull’abolizione del Senato.

    C’è un bel libro di Ziman sulla ricerca post-accademica (La vera scienza) che tratta questi temi.

  8. Anche la ricerca umanistica spesso costa pochissimo: buone biblioteche con ampi orari di apertura sono già gran parte di ciò che serve davvero a uno studioso; ma oggi la trafila richiesta per l’acquisto di un libro è grottesca e passa attraverso amministrativi supponenti e distributori librari che si sono garantiti appalti esclusivi con procedure sulla cui trasparenza non giurerei. Mi sembra l’ennesimo esempio di come una gestione burocratico-affaristica dell’università strozzi la ricerca e non giovi ad altri che a se stessa.

  9. da me sto assistendo a cose che voi umani…

    ci sono colleghi (si fa per dire) a cui la cupola sta facendo inserire il nome nei paper più disparati, altro che autorship a pagamento!

    e cosí, mentre i non abilitati (molti dei quali non abilitati giustamente) starnazzano aiutati dall’effetto amplificatore dei quotidiani e da roars, gli abilitati affiliati stanno per essere chiamati, e i trombati affiliati stanno affilando le armi aiutati dalla cupola…
    ecco, in mezzo a tutto ‘sto casino la voce di quei pochi abilitati non affiliati si perde nel mare strumentale della contestazione.

    e fu cosí che anche testate come roars alla fine, non volendo, diventano funzionali al disegno originario…

    serve uno strumento per unire le forze degli abilitati non affiliati, dei “round peg into the square hole” quelli che in fondo, sulla carta, avrebbero dovuto essere il futuro dell’università!

  10. Forse e’ un solo caso che la rivista sia di Elsevier… Vorrei pero’ ricordare che ciascuno di noi puo’ aderire all’ appello di boicottaggio lanciato qualche anno fa (per info vedere anche su Wikipedia)

    http://www.thecostofknowledge.com

    Sappiamo tutti quanto gli abbonamenti elettronici costino alle Universita’, e dovremmo riflettere anche di piu’ alla luce del dato riportato recentemente dall’ Economist. Fatturato Elsevier 2012: circa 3 miliardi di Euro; utile: circa 900 milioni.
    L’ American Mathematical Society si occupa da tempo di queste questioni: potete trovare gli editoriali sui Notices Amer. Math. Soc. (accesso libero)

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.