Open Access

Il ritiro della Lista di Beall. Ne sentiremo la mancanza?

Qualche giorno fa, Jeffrey Beall bibliotecario e professore presso l’università di Colorado Denver, ha ritirato la sua notissima lista di potential, possible or probable predatory publishers. Una retraction eccellente, anche se inconsueta, di cui retraction watch ha subito dato notizia.

La lista di Jeffrey Beall avviata nel 2008 e disponibile fino a pochi giorni fa sul sito scholarlyoa.com conteneva più di 1000 titoli ed è stata un punto di riferimento per molti studiosi e ricercatori in cerca di chiarezza e ha certamente contribuito a portare alla luce un fenomeno dilagante nel mondo accademico governato dal meccanismo del publish or perish: cioè quello della nascita di riviste che, sfruttando l’ingenuità (o la superficialità) di molti ricercatori,  dietro pagamento di cifre più o meno grandi pubblicano qualsiasi tipo di ricerca, senza applicare alcun filtro di qualità, promettendo e garantendo improbabili indici di impatto e fiumi di citazioni.

La black list di Beall è diventata quindi un punto di riferimento per molti ricercatori che spesso però non hanno tenuto conto del fatto che la sua compilazione è stata totalmente affidata al giudizio (individuale, soggettivo e certamente viziato da un pregiudizio nei confronti dell’open access) di una sola persona e dunque fallibile.

Se da un lato quindi a Beall va riconosciuto il fatto che la sua lista ha contribuito a mettere in evidenza un problema molto serio e a rendere vigili e più critici  i ricercatori rispetto alle decine di mail giornaliere di invito a contribuire a questa o a quella rivista*, dall’altro ha associato le sue liste di predatory publishers e journals ad una idea distorta di open access, rendendo nella vulgata le riviste open access uguali e coincidenti coi predatory journals. Una vulgata difficile da modificare e che anche in Italia ha i suoi sostenitori in personaggi come Ernesto Carafoli che in un recente convegno milanese su L’onestà nella ricerca scientifica avrebbe sostenuto che

Fino a una ventina d’anni fa, […], c’erano poche importanti riviste scientifiche (Nature, Science, New England Journal of Medicine, The Lancet….) a governare il settore, pubblicando dopo attente e rigorose analisi indipendenti (le peer review), gli studi che ritenevano corretti. Gli errori c’erano, le frodi pure, ma erano sporadiche e clamorose. Poi si è pensato che fosse un male che solo poche riviste potessero ‘dirigere’, in un certo senso, la scienza mondiale e c’è stata l’apertura alle cosiddette riviste ‘open access’, che ben presto sono diventate numerosissime, qualcosa come 10 mila.

Non è ovviamente così. Anche l’esperimento di John Bohannon (2013)  volto a mettere il luce quanto poco fossero affidabili le pratiche di revisione di molte riviste open access, manca totalmente di robustezza perché l’invio del suo fake paper è stato fatto solo a riviste open access e non ad altro tipo di riviste, per cui non sappiamo come gli editors di riviste non open access si sarebbero comportati ricevendo lo stesso articolo.

L’open access è il modello con cui i contenuti arrivano al pubblico ed un modello di business, non un modello di validazione o di assicurazione della qualità. Le procedure di validazione restano uguali indipendentemente dal modello. I predatory journals esistono sia fra le riviste open access che fra quelle in abbonamento e casi di scientific misconduct sono evidenti (e in crescita) tanto nelle riviste open access quanto in quelle in abbonamento.

Dispiace ovviamente per chi, angosciato dalla richiesta di essere produttivo a tutti i costi e dalla necessità di avere numeri buoni nella propria performance e scoraggiato dai tempi di pubblicazione di certe sedi editoriali  o dai tassi di respingimento è caduto nella rete di questi pirati della editoria scientifica. Ma riflettendoci bene un ricercatore dovrebbe essere in grado di verificare se una rivista (open o closed access) è una rivista seria o meno. I punti a cui porre attenzione sono tanti, dalla composizione del comitato scientifico, alla indicazione delle pratiche di validazione degli articoli, dalla presenza di un codice etico all’atteggiamento rispetto al plagio, dai tempi di validazione, alle indicazioni sulla gestione del copyright, alla elencazione di indicatori di dubbia provenienza (vengono indicati come IF indici che nulla hanno a che fare con il marchio registrato di Thomson ora Clarivate),  alla presentazione del comitato scientifico con le relative affiliazioni. Questo screening può essere in parte guidato da strumenti sviluppati ad hoc, come Think Check Submit .

Piuttosto che affidare le proprie scelte o non scelte a liste nere più o meno accurate vale la pena di acquisire, una volta per tutte, quei pochi essenziali strumenti che ci rendano in grado di distinguere fra riviste buone e riviste predatorie (open access o closed access che siano).

 

*si ricorda che a seguito della lista di Beall la Directory of open access journal ha modificato la procedura di analisi delle riviste per l’inclusione, eliminando più di 3000 titoli

Send to Kindle
Tag: , , , ,

20 Comments

  1. leonardo.40 says:

    Perfettamente d’accordo. Un ricercatore che non sa distinguere una rivista scientifica da una predatoria non è una vittima: è solo un cattivo ricercatore.

  2. Salvatore Valiante says:

    La lista di Beall si basava su due criteri della Committee on Publication Ethics (COPE):
    Code of Conduct for Journal Publishers
    Principles of Transparency and Best Practice in Scholarly Publishing

    Se una rivista o un editore rispondeva a questi criteri veniva aggiunto alla lista. Nulla di più.
    Come scritto nella home page anche alcune riviste a pagamento erano state aggiunte.

    D’altra parte la correlazione positiva esistente tra IF e numero di ritrattazioni smentisce la presunta eccellenza delle riviste “altamente impattanti”.

    Infine era scritto a chiare lettere che gli studiosi:”read the available reviews, assessments and descriptions provided here, and then decide for themselves whether they want to submit articles, serve as editors or on editorial boards.”

    Nessun obbligo, nessuna coercizione e soprattutto nessun suggerimento subdolo per facili equivalenze.

    Se quindi la vulgata associa le riviste OA ai predatory journals e preferisce “le poche importanti riviste scientifiche” forse è anche per la mediocrità della vulgata.
    Cordialmente

    Al netto la cancellazione della Beall’list mi pare una perdita

    • Alberto Baccini says:

      Il problema della Beall’s list credo sia essenzialmente di essere una lista fatta da un singolo individuo.
      Ho usato la lista decine di volte. E più o meno sono stato sempre d’accordo con ciò che trovavo nella lista.
      Devo dire invece che le posizioni pubbliche di Beall sull’OA mi hanno sempre lasciato molto scettico, se non apertamente ostile.
      Certo: la lista di Beall è stata sicuramente meno dannosa di altre liste prodotte a fini valutativi: penso soprattutto alle liste di riviste ANVUR.
      Perché tra la lista di Beall e le liste anvuriane c’è una grande differenza.
      La lista di Beall è una lista frutto del “mercato”: uno studioso ha deciso di farla e tutti sono liberi di usarla o meno.
      Le liste anvuriane sono invece frutto della pianificazione centralizzata: un organo del ministero (ANVUR: non è una agenzia autonoma!) ha selezionato alcuni studiosi ed ha dato loro il compito di scrivere quelle liste. Ed ha poi imposto quelle liste come “la verità”.

  3. Paola Galimberti says:

    Indipendentemente dalla bontà dei criteri utilizzati (due sono un po’ pochi) e riconoscendo a Beall il merito di aver sollevato un problema grave, la creazione di liste di autorità (in positivo o negativo) non è impresa che qualcuno può facilmente portare avanti da solo senza rischiare che la lista risulti incompleta e con errori. Personalmente credo che uno studioso contattato da una rivista che gli offre di pubblicare possa prendersi un po’ di tempo per capire se si tratta di una rivista seria o meno.
    E ha tutti gli strumenti per farlo.
    Per essere inclusa nella directory of open access journal una rivista fa una application piuttosto onerosa e è sottoposta a tre livelli di review.
    E’ un po’ diverso che lasciare tutto nelle mani di un’unica persona che in maniera del tutto soggettiva si sceglie i propri oggetti di indagine e ne diventa il censore.
    Certamente Beal non ha mai imposto le sue liste a nessuno, ma la sua ostilità verso l’accesso aperto è stata spesso utilizzata (come nell’esperimento di Bohannon a cui manca totalmente un analogo esperimento fatto con le riviste in abbonamento)in maniera strumentale per fare passare l’idea che la letteratura open access sia sempre e comunque sinonimo di cattiva letteratura, mancanza di filtri, scarsa qualità.

  4. Salvatore Valiante says:

    Fermo restando che le regole sarebbe meglio condividerle e pensarle insieme (magari fosse la comunità degli studiosi a farlo), i criteri usati sono contenuti nel “Code of Conduct for Journal Publishers” e “Principles of Transparency and Best Practice in Scholarly Publishing”, quindi non sono due ma ognuno contiene almeno una decina di indicatori e riguardano:
    -Editor and Staff
    -Business management
    -Integrity
    -Other
    -Poor journal standards / practice

    Tali indicatori suggeriscono, soprattutto nel caso siano presenti insieme, comportamenti “possibilmente” dannosi per gli studiosi.

    Qualsiasi studioso può prendersi il tempo che vuole per decidere se la rivista è seria e la lista di Beall era solo uno strumento utile non certo da seguire come la Verità ma più come ausilio.
    Sottolineavo che magari se esistono studiosi che prendono per oro colato ciò che scrive Beall (che nella prefazione era molto chiaro sui limiti della lista) lo fanno a causa della loro mediocrità che trasforma un mezzo in un fine.
    Esattamente come quelli (quanti!!!) innamorati delle liste ANVUR (con le differenze sottolineate da Baccini).
    Se poi devo essere contrario a prescindere alla lista di Beall perché lui ha idee “eterodosse” sull’OA o perché questo strumento viene usato dai detrattori dell’OA sempre e comunque, allora non mi pare di effettuare un esercizio critico utile e fruttuoso.
    Al solito le semplificazioni (OA=truffa; OA=qualità massima) sembrano più il frutto di pensiero debole che non riesce a sfondare il tetto del tifo calcistico (o con me o contro di me).
    Penso che l’OA sia un gran passo avanti nell’editoria, non solo scientifica, ma non posso far finta di non vedere che certe volte quella buona idea sottostante viene strumentalmente trasformata ed usata (anche da editori tradizionali) per fregare il prossimo.
    Non sottolinearlo, non discuterne, non risolve il problema.
    Cordialmente

  5. Paola Galimberti says:

    “Al solito le semplificazioni (OA=truffa; OA=qualità massima) sembrano più il frutto di pensiero debole che non riesce a sfondare il tetto del tifo calcistico (o con me o contro di me)”
    Esattamente. Sarebbe ora di uscire da questo schema semplicistico e di guardare alle riviste scientifiche (e alla loro qualità) indipendentemente dal modello di business.

  6. Francamente, se ne sente già la mancanza!

    1) Quella di Beall non è una “retraction”,piuttosto una strana e triste sparizione motivata da probabili cause legali che l’autore non può sostenere economicamente…L’errore di Beall forse è stato di non ricorrere all’anonimato… ma non sarebbe stato avvertito come credibile dalla comunità accademica.

    2) Nessuno si è occupato, oltre a Beall, di creare una lista GRATUITA più inclusiva con strumenti collaborativi, criteri chiari e non individuali ecc.
    Eppure milioni di euro e dollari della ricerca pubblica globale vengono buttati in pubblicazioni predatorie e “vanity press” (oltre che per la pubblicazione in riviste accademiche – anche in abbonamento – i cui criteri di revisione sono poco chiari, se non fasulli).

    Prepararsi alle liste “a pagamento”…

    2) Beall aveva fatto emeregere molti problemi dell’odierno mercato accademico delle pubblicazioni OA (e in abbonamento): truffe, titoli “rubati”, citazioni in cambio di revisioni, SPAM, metriche fasulle, editori che fanno la peer review “veloce” ad articoli già rifiutati da riviste importanti, publisher che dalle riviste predatorie open access si stanno spostando rapidamente ( grazie agli enormi profitti) su riviste in abbonamento/OA “blasonate” con la chiara finalità di nobilitare il loro intero catalogo “truffaldino”.

    3)Purtroppo non solo i ricercatori non fanno attenzione a dove inviano gli articoli (vuoi perchè potrebbero sottrarsi dal pubblicare articoli di basso valore, vuoi perchè soffocati dal “publish or perish”…) ma non prestano nemmeno attenzione alle riviste per le quali fanno da revisori!
    In molti regalano il proprio nome – e credibilità – ai comitati editoriali di riviste-truffa, attirando inconsapevoli colleghi nella trappola.. Alcuni docenti, medici, professionisti (…) inseriscono nelle proprie pagine istituzionali, con orgoglio, il proprio ruolo di revisori in riviste-truffa..

    4)Anche i database bibliografici acquisiti dalle biblioteche accademiche sono infarciti di riviste predatorie (OA e non) perchè poco interessa ai grandi distributori di contenuti accademici della qualità, si preferisce la quantità dei titoli! (cfr.Predatory Journals in Library Databases: How Much Should We Worry? http://www.tandfonline.com/doi/abs/10.1080/0361526X.2015.1080782?src=recsys&journalCode=wser20)
    Assurdo e ridicolo, perchè trattasi di pubblicazioni seriali accessibili gratuitamente, inserite in pacchetti disciplinari di riviste per fare numero: l’effetto che producono indicizzandole è di aumentare la visibilità di seriali dal basso valore qualitativo!

    5) La critica ad alcune riviste con Impact Factor JCR (alcune Frontiers, Impactjournals…) non solo si fondano su problemi assolutamente reali, ma non piacevano a molti ricercatori che quando una rivista ha “impact factor” non importa verificarne la reale qualità o i modus operandi degli editor e revisori…

    6)Sicuramente Beall aveva delle posizioni non sempre condivisibili sull’OA, non inficianti la lista.

  7. Salvatore Valiante says:

    @ Galimberti
    “… ha associato le sue liste di predatory publishers e journals ad una idea distorta di open access, rendendo nella vulgata le riviste open access uguali e coincidenti coi predatory journals”

    “Piuttosto che affidare le proprie scelte o non scelte a liste nere più o meno accurate…”

    Non l’ho scritto io questo tifo da stadio.

    Mi fa piacere si sia accorta della necessità di andare oltre le semplificazioni.
    Cordialmente

  8. Paola Galimberti says:

    @mapo
    “Nessuno si è occupato, oltre a Beall, di creare una lista GRATUITA più inclusiva con strumenti collaborativi, criteri chiari e non individuali ecc”

    https://doaj.org/

    • Alberto Baccini says:

      Non è questione di tifo da stadio. Questo sotto è il ritaglio della testata del sito (defunto) di Beall. E’ lui che associa la nozione di “predatory” a quella di OA. Ci sono riviste non OA che si comportano né più né meno come le riviste predatorie descritte da Beall; e ce ne sono altre che adottano altri comportamenti discutibili per scalare ranking citazionali.

      In questo articolo la logica alla base del lavoro di Beall. Una logica che a mio parere si basa su una completa incomprensione del funzionamento del mercato dell’editoria scientifica. Mi viene da pensare: ex falso sequitur quodlibet? (da una affermazione falsa segue qualsiasi cosa).

    • @Paola Galimberti

      Sicuramente DOAJ è diventata una directory più affidabile (anche) grazie alla lista di Beall ed al lavoro svolto per “ripulirla”. Alcuni publisher inclusi nella directory (cfr. NobleResearch Publisher – faccio un esempio) mantengono alcune caratteristiche di “vanity press” o di editoria predatoria sui generis.
      DOAJ è nella logica della “whitelist”, un blog “blacklist”, come quello di Beall aveva un risvolto critico non trascurabile, perchè favorisce e rende possibile una maggiore interazione tra utenti – in tal senso era “collaborativo”.

    • @ Alberto Baccini
      Beall si occupa(va) di analisi critica dell’editoria Open Access. Quello era il focus della ricerca. Questo è chiaro ed è ciò che emerge anche dalla testata del blog. Non che tutto l’OA è predatorio! Nessuna premessa falsa quindi…
      Curiosamente, l’articolo di Beall citato è un OA, e contiene spunti di riflessione interessanti, anche per chi non ha la stessa impostazione ideologica di Beall.

  9. Paola Galimberti says:

    Degli effetti (anche) della lista di Beall sui nuovi criteri della DOAJ abbiamo parlato qui http://leo.cineca.it/index.php/jlis/article/view/12052.
    Il “risvolto critico” della lista di Beall era molto parziale perché non considerava la editoria predatoria non open access.

    • “Il “risvolto critico” della lista di Beall era molto parziale perché non considerava la editoria predatoria non open access.”

      Parziale – ma c’era – ed era un risvolto influente, tanto che è difficile prescindere da Beall anche nella costruzione di una whitelist.

  10. Paola Galimberti says:

    Quando abbiamo fatto la nostra analisi dei dati doaj in realtà la lista di Beall è stata una delle (tante) fonti.
    Prescindibilissima nel momento in cui esistono linee guida di riferimento.

    • Cito il Suo articolo “(…) Various authors have criticized Beall for not contextualizing predatory or low-quality publishing as a phenomenon that predates Open Access and which is not exclusive to Open Access journals. They have determined that this issue is a bias (Berger and Cirasella 2015; Bloudoff-Indelicato 2015; Coyle 2013; Crawford 2014; Emery 2013). Although we are aware of this premise, we decided to use Beall’s lists because, even if biased, they represent a significant reference point.(..)”.

      Lo scrive Lei, non io.

  11. Paola Galimberti says:

    Leggendo l’articolo per intero risulta come i riferimenti siano stati le liste di Beall, scopus e web of science e come degli oltre 3000 titoli eliminati 30 soli fossero inclusi nella imprescindibile lista. Come ho detto, una fonte in più i cui esiti sono stati verificati alla luce del nuovo set di criteri, validi per riviste open e per riviste closed access.

    • Qui cita un dato parziale rispetto l’intero numero di riviste transitate in DOAJ…

      Il blog di Beall non è imprescindibile (non ho scritto questo…) ma è (era) un punto di riferimento significativo che, nonostante tutti i limiti, ha creato dibattito, innescato cambiamenti ed è stato utilizzato nella pratica OA anche da chi non condivide i presupposti ideologici dell’autore.

Leave a Reply

Sostieni ROARS

Sostieni ROARS