Open Access / Open science

Open access, Open science. L’Italia, un paese in grave ritardo

Quando si parla di Open Access o, cosa ancora più astrusa, di Open Science e delle politiche collegate, nel nostro paese ancora si tirano fuori pregiudizi quali la scarsa qualità delle pubblicazioni ad accesso aperto, i costi stratosferici della pubblicazione in open access, l’immoralità del pagare per pubblicare, l’attentato alla libertà accademica per cui un ricercatore non sarebbe più libero scegliere la propria sede di pubblicazione. L’open access non è entrato nella normale prassi dei nostri ricercatori, sono poco chiari i fondamentali riguardo ai modi e agli strumenti, e finanche i concetti di base, a partire dalla confusione assai comune che viene fatta tra archivi istituzionali e social network. E non ci sono, a differenza di quanto accade negli altri paesi europei, iniziative istituzionali di rilevo. Il rischio che la ricerca in Europa si muova a due velocità è alto. Ed allo stato attuale appare realistica la possibilità che fra i paesi più lenti resti solo l’Italia.

Quando si parla di Open Access o, cosa ancora più astrusa, di Open Science e delle politiche collegate, nel nostro paese ancora si tirano fuori pregiudizi quali la scarsa qualità delle pubblicazioni ad accesso aperto, i costi stratosferici della pubblicazione in open access, l’immoralità del pagare per pubblicare, l’attentato alla libertà accademica per cui un ricercatore non sarebbe più libero scegliere la propria sede di pubblicazione.

Retaggio del passato, ampiamente superato in quasi tutti i paesi d’Europa.

In Austria, dove il Ministero per la scienza, la ricerca e l’economia  ha avviato negli ultimi anni una serie di iniziative volte a sostenere l’Open Science, l’accesso aperto alle pubblicazioni scientifiche, ai dati della ricerca, ai materiali didattici, a creare una rete di collaborazione fra università, Ministero e Centri di ricerca per lo sviluppo di piattaforme tecnologiche che possano supportare i ricercatori e le loro istituzioni https://www.openaire.eu/austria-opens-science-new-projects-in-2017

In Olanda, dove la Associazione delle Università Olandesi VSNU promuove e porta avanti la politica del Ministero http://www.openaccess.nl/en per la ricerca che si propone di arrivare al 100% delle pubblicazioni ad accesso aperto entro il 2024 http://vsnu.nl/more-impact-with-open-access/. Anche la Netherlands organisation for scientific research ha puntato sull’open science, sostenendo sia la green road che la gold road http://www.nwo.nl/en/policies/open+science

In UK, dove i Research Councils UK promuovono da anni la politica dell’accesso aperto ai dati e alle pubblicazioni scientifiche, con una serie di azioni  di sostegno che sono state implementate, verificate, analizzate e migliorate, http://www.rcuk.ac.uk/research/openaccess/ , alla luce di una serie di report sugli effetti di questa politica che punta anch’essa ad avere il 100% delle pubblicazioni ad accesso aperto. Per il REF stesso le pubblicazioni presentate devono essere disponibili in un archivio ad accesso aperto.

The core of the policy is that journal articles and conference proceedings must be available in an open-access form to be eligible for the next REF. In practice, this means that these outputs must be uploaded to an institutional or subject repository

Pregiudizi ampiamente superati anche dal Ministero tedesco per la  Ricerca e la formazione che ha fatto dell’accesso aperto una delle strategie portanti per l’educazione e la ricerca del Paese https://www.bmbf.de/pub/Open_Access_in_Deutschland.pdf

Il Ministero Norvegese per l’educazione e la ricerca ha incaricato un gruppo di lavoro di produrre delle Linee guida nazionali per l’open access in Norvegia http://www.forskningsradet.no/en/Open_access/1254008537671 come modalità di supporto della Norvegia alle politiche delle EU.

Perché certamente molte delle politiche fin qui descritte si riconnettono al forte sostegno che da anni la EU ha dato e sta dando all’open science, sia come modo per rendere più visibile e competitiva la ricerca europea, sia come strumento portante della Responsible Research and Innovation,. L’Europa ha creduto così tanto nelle potenzialità della scienza aperta che ha legato i finanziamenti del programma H2020 alla clausola della piena  disponibilità ad accesso aperto di pubblicazioni e dati esito dei finanziamenti ricevuti, e che ha creato un repository, OPEN AIRE che raccoglie dalle varie istituzioni le informazioni e i full text delle pubblicazioni e dei dati grezzi prodotti durante le ricerche che ha finanziato,  e ha predisposto anche un repository, Zenodo, per quei ricercatori che non sono affiliati ad alcuna istituzione o la cui istituzione non ha un archivio istituzionale.

E, ancora, sempre l’UE ha messo a punto l’Open Science Monitor, che propone una serie di indicatori per l’analisi e il monitoraggio delle attività di open science in Europa.

Potremmo continuare raccontare delle iniziative interessanti in Spagna,  Portogallo o Danimarca, ma in realtà il punto è un altro. L’Italia è un paese europeo con una ricerca di ottimo livello, ma il suo Ministero (che coincide anche con il suo principale finanziatore) sembra non aver considerato (e continuare non considerare)  in nessuna delle sue politiche l’accesso aperto, né sembra aver recepito nessuna delle indicazioni provenienti dall’Europa e così ben assimilate e tradotte in politiche negli altri paesi. Le uniche iniziative a favore dell’ accesso aperto sono state portate avanti dal basso, da un gruppo di lavoro della CRUI, di cui pochi conoscono l’esistenza e che si è occupato della stesura di linee guida per l’implementazione dell’accesso aperto negli atenei; dagli atenei in cui l’accesso aperto è entrato per la tenacia e la sensibilità di singoli o piccoli gruppi che hanno recepito le linee guida delle CRUI e sono riusciti a mantenere il contatto con l’Europa e con le sue politiche.

Recentemente si è formata l’Associazione Italiana per la Scienza Aperta (AISA), che raccoglie la maggior parte di coloro che si occupano di Scienza Aperta in Italia e che sta portando avanti una proposta di modifica della legge sul diritto d’autore, passo fondamentale per il riutilizzo delle proprie pubblicazioni. Quello che però manca totalmente è il sistema. Il grande assente è il MIUR. Anche la legge sull’accesso aperto, ampiamente disattesa e inapplicata, è stata promossa da un Ministero diverso dal MIUR e si esaurisce in un comma (il comma 4) di una legge più articolata, recante Disposizioni urgenti per la tutela, la valorizzazione e il rilancio dei beni e delle attività culturali e del turismo (L 112 7 ottobre 2013), nel cui titolo il sintagma “ricerca scientifica” non compare.

Allora viene da chiedersi, ma di tutto questo movimento europeo e nei singoli stati membri in Italia non arriva neppure un’eco lontana o siamo noi che siamo sordi?

Quando si leggono alcuni articoli su blog o giornali risulta molto chiaro che la strada verso una politica di sistema è ancora lunghissima, che l’open access non è entrato nella normale prassi dei nostri ricercatori, che i pregiudizi sono molto radicati, i concetti sono confusi, a partire dalla confusione fra archivi istituzionali e social network, così come poco chiari sono i fondamentali riguardo ai modi e agli strumenti.

E, mentre continuiamo a dibatterci nei pregiudizi, il rischio che la ricerca in Europa si muova a due velocità è alto, come appare realistica, allo stato attuale,  la possibilità che fra i paesi più lenti resti solo l’Italia.

 

 

Send to Kindle
Tag: ,

48 Comments

  1. Pingback: Open access, open science: il ritardo italiano

  2. Il problema non è l’open access, ma le “riviste predatorie” che sono quasi tutte ad accesso aperto… bisogna combattere questo fenomeno a livello mondiale, se si vuole veramente fare in modo che la scienza diventi tutta open.

  3. Romeo Beccherelli says:

    L’Open Access è un modello di business individuato dagli editori, generalmente aziende commerciali, in risposta alla informatizzazione e conseguente facilità di reperire gratuitamente gli articoli scientifici, senza doversi sobbarcare il costo (senza entrare nella laicità o meno della cosa). Meno abbonamenti, meno fatturato. Più Open Access, più fatturato
    Non stupisce quindi che i governi di alcuni Stati supportino l’Open Access pagato a caro prezzo, di prassi, a carico dei fondi di ricerca.
    Infatti alcuni importanti editori hanno sede fiscale nei Paesi Bassi, In Germania, in UK e fatturano parecchi miliardi all’anno. La massimizzazione del loro fatturato è quindi interesse dei loro governi, che potranno incassare maggiore gettito fiscale diretto sia sulle imprese che sul lavoro dei dipendenti, nonché sull’indotto, e dalla tassazione indiretta su consumi dei dipendenti.
    Sfugge allora perché il MIUR debba dilapidare risorse per beneficiare l’ erario di altri Stati, invece di utilizzare le limitate risorse dei contribuenti italiani per beneficiare i contribuenti altrui.
    E’ anche da osservare che l’Open Access non di rado si combina con la dematerializzazione del supporto: nelle biblioteche non permane una copia cartacea, magnetica o ottica a futura memoria. Tutto resta in possesso dell’editore, auspicabilmente disseminato in modo random su tutto il pianeta, auspicabilmente inficiato da motori di ricerca di cui le biblioteche non hanno però il controllo.
    Queso modello di fatto vanifica la ragione di esistere delle biblioteche in quanto “contenitori fisici”.
    Chissà se chi trae il proprio reddito dal lavoro di bibliotecario abbia la consapevolezza degli effetti dell’Open Access

    • Roberto Caso says:

      @Romeo Beccherelli: “E’ anche da osservare che l’Open Access non di rado si combina con la dematerializzazione del supporto: nelle biblioteche non permane una copia cartacea, magnetica o ottica a futura memoria. Tutto resta in possesso dell’editore, auspicabilmente disseminato in modo random su tutto il pianeta, auspicabilmente inficiato da motori di ricerca di cui le biblioteche non hanno però il controllo”.

      La dematerializzazione e la messa on-line su Internet non sono fatti che riguardano solo l’Open Access, ma tutta l’editoria scientifica. L’editoria scientifica ad accesso chiuso usa Internet da prima che l’Open Access si diffondesse. Dunque, nell’accesso chiuso a pagamento i problemi di accessibilità, marginalizzazione del ruolo delle biblioteche, conservazione nel tempo si moltiplicano. L’Open Access basato su archivi istituzionali di università e centri di ricerca è invece una struttura molto più simile a quelle delle biblioteche tradizionali.

  4. Paola Galimberti says:

    Nessuna delle motivazioni da lei citate trova riscontro nella storia dell’accesso aperto che nasce proprio come reazione degli scienziati alla chiusura e alla commercializzazione dei contenuti da loro prodotti e ceduti gratuitamente agli editori.http://wikimedia.sp.unipi.it/index.php/OA_Italia/Un_po%27_di_storia
    Sulla gold road le forme sono molteplici.
    Si stanno moltiplicando iniziative come quella portata avanti da Tim Gowers con Discrete analysis o dalla rivista Quantum http://quantum-journal.org/ dove i costi per la pubblicazione sono prossimi allo zero.
    Quando notavo che in Italia ci sono poche idee e totalmente confuse mi riferivo proprio a interventi come questo

  5. Romeo Beccherelli says:

    Non appare un’idea confusa che a parità di qualità del lavoro, si “spunti” un Impact Factor maggiore e si accumulino più citazioni se l’articolo è Open Access. È un’evidenza sperimentale misurabile e con effetti monetizzabili nelle carriere degli individui.
    È fra i motivi per cui i ricercatori formatisi nelle istituzioni ricche, che possono pagare l’Open Access, fanno lobby per sbarrare la strada a quelli formatisi delle istituzioni povere, che non possono pagarlo.

    Non appare un’idea confusa che l’Open Access incrementi notevolmente i fatturati, riduca i costi (non si spende in stampa e spedizioni), e aumenti i profitti degli editori, sia di quelli predatori (che non esiterebbero senza Open Access) che di quelli più seri (ma che giocano col doppio binario del subscription/open, o con gli ibridi).
    A titolo d’esempio: http://www.nature.com/news/open-access-the-true-cost-of-science-publishing-1.12676 :
    “Neither PLoS nor BioMed Central would discuss actual costs (although both organizations are profitable as a whole), but some emerging players who did reveal them for this article say that their real internal costs are extremely low. Paul Peters, president of the Open Access Scholarly Publishing Association and chief strategy officer at the open-access publisher Hindawi in Cairo, says that last year, his group published 22,000 articles at a cost of $290 per article. Brian Hole, founder and director of the researcher-led Ubiquity Press in London, says that average costs are £200 (US$300). And Binfield says that PeerJ’s costs are in the “low hundreds of dollars” per article.”

    Nessuno esclude che ci siano pratiche di accesso gratuito finalizzate “al bene della scienza”. ArXiv potrebbe sembrare uno di essi: “They post pre- and post-reviewed versions of their work on servers such as arXiv — an operation that costs some $800,000 a year to keep going, or about $10 per article. ”

    Ma arXiv non costituisce “pubblicazione peer reviewed”.

    Il modello di Quantum indicato dall’autrice appare interessante e da monitorare, ma fees di 100-200 sembrerebbero di un ordine di grandezza superiori a quelli di arXiv, e di poco inferiori a quelli citati di alcuni editori for-profit.
    Restiamo in attesa di italici paladini del modello Open Access gratuito per tutti che si cimentino come “publisher” di riviste prive di “article processing charges” e costi per i lettori, lavorando pro bono e rinunciando ad ogni profitto e retribuzione, così come da sempre fanno gli “associated editors” e i “reviewers”. Ovviamente garantendo elevati standard di qualità degli articoli pubblicati. Si ridurrebbe quindi il flusso di denaro dall’Italia agli editori esteri.
    Gliene saremo tutti grati, perché resterebbero più denari per fare
    ricerca e retribuire meglio i giovani che lavorano nella ricerca.

    • Alberto Baccini says:

      Non siamo i soli, ma nel nostro piccolo lo stiamo facendo con RT. A journal on research policy and evalution. Con estrema fatica, anche perché chi ha interesse a pubblicare in una rivista che adotta standard di revisione di qualità (come prova il seal DOAJ), ma che non vale nulla per ASN e VQR perché giovane (o se uno preferisce l’inglese, in fase di start-up)?

      http://riviste.unimi.it/index.php/roars

      Qui c’è l’elenco delle riviste pubblicate da UNIMI.

      http://riviste.unimi.it/index.php/index/index

    • Appunto. Quale incentivo può esserci per gli accademici pubblicare secondo il modello Open Access se nelle valutazioni VQR e ASN non vengono riconosciute? Molti commissioni in questa ASN hanno negato l’abilitazione basandosi sulle sedi di pubblicazioni e quindi senza neanche leggersi gli articoli cosa assolutamente indispensabile nel modello Open Access.

    • Le riviste in lingua italiane incluse nella Directory of Open Access Journals sono, in questo momento, 306. Di queste 277 non chiedono agli autori di pagare per pubblicare. Basta andare a cercarle qui:

      https://doaj.org/search

      selezionando le chiavi necessarie in “APCs” (no) e “Full text language” (Italian).

      Considerando che non dovrebbero neppure esserci e che ad Anvur e Miur interessa tutt’altro che l’uso pubblico della ragione e la sua libertà, qui abbiamo non uno, ma circa(*) 277 cavalieri inesistenti.

      (*)”Circa” perché fra le 277 ci può anche essere qualche rivista straniera che però accetta testi anche in italiano.

    • Paola Galimberti says:

      @Romeo Beccherelli: Restiamo in attesa di italici paladini del modello Open Access gratuito per tutti che si cimentino come “publisher” di riviste prive di “article processing charges” e costi per i lettori, lavorando pro bono e rinunciando ad ogni profitto e retribuzione,
      —————————–
      Solo un paio di esempi: http://www.italian-journal-of-mammalogy.it/
      oppure
      http://riviste.unimi.it/index.php/RIPS

      garantisco che fanno proprio quello che dice lei

      se cerca nella DOAJ Italy e poi seleziona: no apc ci sono altri 200 titoli

    • Roberto Caso says:

      @Romeo Beccherelli: “Non appare un’idea confusa che a parità di qualità del lavoro, si “spunti” un Impact Factor maggiore e si accumulino più citazioni se l’articolo è Open Access. È un’evidenza sperimentale misurabile e con effetti monetizzabili nelle carriere degli individui”.

      E’ invece un’idea poco chiara. L’OA aumenta la visibilità e l’IF rispetto a cosa? Alle riviste ad accesso chiuso? Si confonde la visibilità con l’impatto. L’OA accresce la visibilità su Internet. L’impatto è determinato da altre variabili. In ogni caso, se i ricercatori pensano più all’impatto che alla scienza è colpa della valutazione e non certo dell’OA.

      @Romeo Beccherelli: “Non appare un’idea confusa che l’Open Access incrementi notevolmente i fatturati, riduca i costi (non si spende in stampa e spedizioni), e aumenti i profitti degli editori, sia di quelli predatori (che non esiterebbero senza Open Access) che di quelli più seri (ma che giocano col doppio binario del subscription/open, o con gli ibridi)”.

      E’ invece un’idea poco chiara. Il fatturato dei grandi editori commerciali è in crescita esponenziale da decenni. Quindi da prima che si diffondesse l’OA. E’ determinato dalla struttura oligopolistica del mercato a sua volta generata dalla logica imperante della valutazione. La riduzione di costi, invece, è un fattore che ha inciso su tutta l’editoria digitale (prima su quella ad accesso chiuso).
      L’OA inteso come strumento ha le sue perversioni: editoria predatoria e ibrida (come ce le ha l’editoria ad accesso chiuso). Ma l’OA può e deve essere inteso come un movimento etico. Se inteso in questo modo predatori e ibridi sono fenomeni da contrastare.

      @Romeo Beccherelli: “Ovviamente garantendo elevati standard di qualità degli articoli pubblicati”.

      La qualità dipende da molti fattori. Se la comunità scientifica spinge per un controllo serio, allora la qualità aumenterà. Non c’è dubbio però che la pubblicazione ad accesso aperto su Internet accresca le possibilità di controllo. La vicenda della tesi della Ministra Madia dovrebbe insegnare qualcosa a riguardo…

    • Roberto Caso says:

      @Romeo Beccherelli: “Non appare un’idea confusa che a parità di qualità del lavoro, si “spunti” un Impact Factor maggiore e si accumulino più citazioni se l’articolo è Open Access. È un’evidenza sperimentale misurabile e con effetti monetizzabili nelle carriere degli individui”.

      E’ invece un’idea poco chiara. Le citazioni e l’IF dipendono da variabili diverse dall’OA. E’ impossibile dire ex ante se trasformare una rivista ad accesso chiuso in rivista OA porti a un aumento dell’IF. L’OA aumenta solo la potenziale visibilità delle pubblicazioni. In ogni caso non è colpa dell’OA se i ricercatori pensano di più all’IF che alla ricerca della verità. Infine, l’aumento di fatturato degli editori commerciali e la crisi dei bilanci delle biblioteche è un fenomeno antecedente alla diffusione dell’OA e dipendente dalla logica imperante della valutazione.

      @Romeo Beccherelli: “Non appare un’idea confusa che l’Open Access incrementi notevolmente i fatturati, riduca i costi (non si spende in stampa e spedizioni), e aumenti i profitti degli editori, sia di quelli predatori (che non esiterebbero senza Open Access) che di quelli più seri (ma che giocano col doppio binario del subscription/open, o con gli ibridi)”.

      E’ invece un’idea poco chiara. L’incremento dei fatturati dei grandi editori commerciali è determinato dalla loro posizione di oligopolio a sua volta generata dalla logica della valutazione già evocata (bibliometria e sistemi connessi).
      Se si intende l’OA come strumento (il mero accesso libero e gratuito per il lettore), è indubbio che lo strumento abbia le sue perversioni: editoria predatoria e ibrida. Ha le sue perversioni come ce l’ha lo strumento dell’accesso chiuso.
      Però se l’OA è inteso come un movimento etico, allora la prospettiva cambia. L’OA come movimento etico contrasta innanzitutto le perversioni della logica della valutazione e la concentrazione del potere valutativo nelle mani di pochi attori.

      @Romeo Beccherelli: “Ovviamente garantendo elevati standard di qualità degli articoli pubblicati”.

      La qualità delle pubblicazioni scientifiche dipende da molti fattori. Ma non c’è dubbio che l’OA aumenti la visibilità su Internet e, per questa via, accresca la possibilità di un controllo critico. La vicenda della tesi della Ministra Madia dovrebbe insegnare qualcosa a riguardo…

    • @RomeoBeccherelli Non appare un’idea confusa che l’Open Access incrementi notevolmente i fatturati, riduca i costi (non si spende in stampa e spedizioni), e aumenti i profitti degli editori, sia di quelli predatori (che non esiterebbero senza Open Access) che di quelli più seri (ma che giocano col doppio binario del subscription/open, o con gli ibridi).
      ————————————

      Se al posto di “Open access” ci fosse “Digitalizzazione” non sarebbe, in effetti, un’idea molto confusa. La digitalizzazione, però, aiuta allo stesso modo sia i “buoni” sia i “cattivi”. Ecco una retrospettiva storica: http://bfp.sp.unipi.it/rete/oldenburg.htm#idp10174304

      L’editoria predatoria, nelle sue varie forme, non è dovuta all’open access, ma al feticismo della “pubblicazione”, declinata quantitativamente, come requisito di carriera. Perché altrimenti dovrei darmi tanta pena per “pubblicare” in qualcosa che somigli a una rivista, pure a pagamento, quando potrei semplicemente farmi un mio blog, spendendo molto meno?

      Ci si potrebbe chiedere perché l’editoria predatoria non preferisca la via dell’ “authors pay” combinata all’accesso chiuso.
      Una rivista predatoria ad accesso aperto, infatti, si rende vulnerabile, perché chiunque può leggere i suoi articoli e smascherarla come tale. Se i suoi autori-clienti avessero semplicemente l’interesse a incrementare il numero delle loro “pubblicazioni” senza preoccuparsi della loro qualità, preferirebbero anch’essi l’accesso chiuso.

      Forse, confusamente, i clienti degli editori a vario titolo “predatori” ricordano ancora che una volta “pubblicare” significava “rendere pubblico” e aveva una nobiltà scientifica legata alla discussione aperta a tutti e non al guadagno di punti sulla tessera Anvur.

      Ma questa stessa discussione ci lascia ben sperare che l’oggettività della valutazione statale della ricerca, con le sue liste di riviste amministrativamente stilate, spazzerà via questo residuo romantico e il suo seguito di cavalieri inesistenti, per consegnare finalmente l’accademia a chi la merita davvero: i baroni rampanti e i visconti dimezzati.

  6. Roberto Caso says:

    I commenti di “Paolo” e “Romeo Beccherelli” dimostrano, involontariamente, che gli argomenti di Paola Galimberti sono solidi e fondati: l’accesso aperto è circondato da pregiudizi.
    Molti non conoscono cosa sia l’Open Access” e lo identificano con le riviste predatorie e l’accesso aperto praticato per fini speculativi da grandi editori commerciali.
    Chi abbia una minima conoscenza della storia del movimento sa che esistono archivi istituzionali e disciplinari, riviste Open Access, overlay journals che non chiedono denaro per la pubblicazione.
    Consiglio ai commentatori finora intervenuti, oltre alla lettura suggerita da Alberto Baccini, un’attenta esplorazione dei links contenuti nell’articolo di Paola Galimberti, tra questi, ad esempio, il sito di AISA (http://bfp.sp.unipi.it/aisa/) e il Wiki Italia Open Access (http://wikimedia.sp.unipi.it/index.php/OA_Italia).
    Poi ne riparliamo… magari sulla base di una più robusta conoscenza della materia.

    • Caso, guardi che io non ho identificato un bel niente … io ho screitto “QUASI tulle le riviste predatorie sono open access”.
      Non ho detto “QUASI tulle le riviste open access sono predatorie ”
      … me sembrano due cose diverse…ribadisco:
      Il problema non è l’open access, ma le “riviste predatorie” che sono quasi tutte ad accesso aperto

  7. Giuseppe De Nicolao says:

    In tema di Open Access, anch’io quando leggo certi commenti, palesemente disinformati, comincio a domandarmi se non sia il caso di diventare emuli di Roberto Burioni. Il titolo del post in cui annunceremo la svolta potrebbe essere:
    _______
    Open Access, Redazione Roars annuncia: “Perché cancelliamo i commenti? Parliamo solo con chi ha studiato, la scienza non è democratica”
    _______
    http://www.huffingtonpost.it/2017/01/02/medico-burioni-commenti-meningite_n_13928188.html

    • Salvatore Valiante says:

      Caro De Nicolao,
      la prendo per quello che è, una battuta.
      Per favore però non diventi anche lei (e men che mai Roars) supponente al punto da negare la scienza come processo democratico.

      Identificare l’OA con il predatory publishing è tesi superficiale e ignorante.
      Ma non stanchiamoci mai di spiegare con pazienza la differenza anche se certe volte diventa problematico e necessita di uno sforzo aggiuntivo.
      Diffondere la cultura OA necessità di conoscenza e se non si spiegano le differenze in modo preciso si permette la sopravvivenza di categorie grossolane che facilitano l’allontanamento delle persone dalle posizioni più razionali verso il pregiudizio.
      Quello che sta accadendo in tema vaccini per esempio.
      Evitiamo quindi posizioni da Marchese del Grillo già molto evidenti in altri ambiti che aiutano solo la diffusione di strampalate teorie antiscientifiche.
      Cordialmente

    • Giuseppe De Nicolao says:

      Credo che Roars con i suoi 41.700 commenti stia a testimoniare l’infinita pazienza con cui abbiamo cercato di spiegare (sempre da capo) i dati di fatto e la letteratura scientifica internazionale. Il mio commento era ironico, ma volevo far capire come si sente chi ha risposto (come me) a migliaia di commenti che ripetevano gli stessi luoghi comuni (sulle classifiche, sulla bibliometria, sull’OA, sul nepotismo biologico, su …) tentando ogni volta di fornire numeri, citazioni e ragionamenti.

  8. Giuseppe De Nicolao says:

    Comunque, per cercare di diradare la nebbia dei pregiudizi sull’Open Access, le abbiamo provate tutte:
    __________
    Accesso aperto. Che cos’è? F.A.Q. & Answers
    http://www.roars.it/online/accesso-aperto-che-cose-f-a-q-answers/
    __________
    Sei miti da sfatare a proposito di Open Access
    http://www.roars.it/online/sei-miti-da-sfatare-a-proposito-di-open-access/
    __________
    Vista la riluttanza dei colleghi a leggere e informarsi, abbiamo persino provato con i cartoni animati:

    L’Open Access spiegato in 8 minuti dall’autore di PhD Comics
    http://www.roars.it/online/lopen-access-spiegato-in-8-minuti-dallautore-di-phd-comics/
    https://youtu.be/L5rVH1KGBCY
    __________
    Prossimamente, tenteremo con i libri parlanti, quelli che danno ai bambini di due anni e che fanno “miao miao” quando metti il ditino sul disegno del gatto.

  9. In attesa dell’audiolibro segnalo, per non saper né leggere né scrivere, questo video dello stesso De Nicolao “Una rivista ad accesso aperto, senza costi per gli autori e di alta qualità: la storia del ‘Journal of Machine Learning Research'”

    http://archiviomarini.sp.unipi.it/716/

  10. Questa la soluzione che ho individuato: pubblico su normali contenitori “non Open Access”, e poi rendo disponibili tutte le mie pubblicazioni come files PDF (“immagini di qualità degradata”) sul mio sito web istituzionale:
    http://www.angelofarina.it/Public/Papers/list_pub.htm
    Qualche “publisher” ha protestato, ma io ho risposto che tale pratica è legale in Italia (Legge, 22/04/1941 n° 633, art. 70, comma 1bis) e che se volevano che togliessi tali PDF dal mio sito dovevano far causa all’Università di Parma.
    Non è un “Open Access” secondo la definizione corrente, ma persegue efficacemente gli stessi obbiettivi, viste le migliaia di scaricamenti che avvengono ogni mese dal mio sito, ed il fatto che esso genera un cospicuo numero di citazioni alle mie pubblicazioni.
    Certo, una soluzione strutturale sarebbe per me preferibile, possibilmente “ope legis”: un ulteriore articolo nella legge sul diritto d’autore che renda OBBLIGATORIO e LECITO rendere disponibile il PDF di tutte le pubblicazioni scientifiche, tecniche o didattiche effettuate dai dipendenti pubblici, sul sito web istituzionale dell’ente di appartenenza.
    Inclusi, beninteso, i libri di testo per preparare gli esami…
    Ho sempre trovato odioso che certi professori pretendano che gli studenti acquistino il “loro” libro per preparare l’esame… Ma stiamo andando OT…

  11. Romeo Beccherelli says:

    @Maria Chiara Pievatolo ha perfettamente ragione:” Se al posto di “Open access” ci fosse “Digitalizzazione” non sarebbe, in effetti, un’idea molto confusa.
    Credo che a confusione nasca dall’uso dello stesso termine per indicare modelli di business ed obiettivi diversi, se non addirittura in antitesi.
    Alcuni, in buona fede intendono “digitalizzazione”, “repository” “democratizzazione”, “accesso gratuito per i poveri ed emarginati.
    Altri leggono “fatturato” “profitti”, “citazioni-carriere-reddito”.
    Ma entrambi usano la parola Open Access.
    Forse sarebbe il caso di usare parole diverse per indicare cose diverse, così si evita di fare, involontariamente propaganda per la massimizzazione del profitto, ahi noi, di aziende ed erari stranieri, sottraendo risorse al Paese ed ai giovani (si paga un post-doc con di un assegno di ricerca e spende in OA, o si paga di un ricercatore TD con uno stipendio vero e non si spende in OA?)

    @Roberto Caso: ” E’ impossibile dire ex ante se trasformare una rivista ad accesso chiuso in rivista OA porti a un aumento dell’IF. ”
    Potrebbe essere azzardato asserirlo ex-ante, ma lo si può “misurare” ex-post. Alcune misure possono essere quantitative, altre qualitative.
    Vi sono diversi editori, anche seri e prestigiosi, anche “learned society” che hanno lanciato riviste in questo millennio, prima come Open Access senza “article processing charges”, e dopo 1-2 anni , hanno iniziato a pretendere un pagamento all’autore. Nella prima fase si “pompa” l’IF, poi i pesci abboccano e si fatturano molti milioni l’anno per rivista, sfruttando il nostro volontariato come associated editors e revisori.
    Esistono anche editori seri (OSA, IEEE, APS) che hanno due riviste con gli stessi identici scopi e audience, una OA e l’altra per abbonamento. In genere trovo lavori di qualità mediamente inferiore a parità di IF sulla rivista OA. Vero è che questa è una “misura qualitativa”, ma su una base statistica di centinaia di articoli letti l’anno. E’ anche capitato al sottoscritto di essere invitato, ad esprimere delle opinioni su processo di revisione di di due riviste dello stesso editore aventi entrambe il formato di “Lettera”, con un IF uguale a meno di un +-10% nei dieci anni precedenti. L’Editore dichiarava che nella rivista OA, il tasso di reiezione fosse circa il 50%, in quella a sottoscrizione, circa il 75%. Seppure su un campione di una singola coppia, questa appare un una “misura quantitativa” delle correlazioni fra qualità degli articoli, delle citazioni e dell’IF.
    Per completezza, il fatturato della rivista OA stimabile dalle diverse migliaia di articoli eccede i 5 milioni l’anno. Fatturato che è aggiuntivo rispetto alla rivista a sottoscrizione, che le biblioteche continuano ad acquistare.
    E si tratta di un editore serio, con editors in chief seri.

    @Roberto Caso. Il motivo per cui l’IF sale appare direttamente correlata alla più immediata reperibilità, almeno prima dell’avvento di SciHub e simili. Infatti il ricercatore di un’istituzione povera, che non gode di sottoscrizioni, cercando riferimenti si imbatte negli OA, e non negli altri. In questo l’OA “democratizza” l’accesso alle informazioni, e non può che essere apprezzabile. Possiamo non voler dare importanza all’IF, non piegarci all’IF, ma non possiamo negare che l’OA aumenti l’IF. E tutti coloro che lo sanno (e lo sanno anche i dottorandi), utilizzano l’OA anche per questo.

    Un’ultima riflessione. Nelle riviste a sottoscrizione e prima della digitalizzazione e della banda larga, la qualità degli articoli, il numero di citazioni, e la diffusione degli articoli, erano seppure in modo imperfetto, parzialmente correlati (rumore ed interferenze esistono sempre) perché era in atto un meccanismo di contro-reazione: l’editore aveva interesse alla massima divulgazione (numero di copie per prezzo=fatturato), senza inflazionare le pagine stampate (=costi). Pubblicare lavori scadenti avrebbe ridotto l’autorevolezza della rivista (poi anche l’IF), aumentato i costi, e comportato una possibile riduzione delle copie e/o del prezzo pagato dalle biblioteche, quindi una riduzione dei profitti. In questo modello, naturalmente si creavano “nicchie” di mercato, con diversi livelli di qualità, ma le riviste puramente predatorie trovavano poco o nessuno spazio. L’autorevolezza e l’IF e le citazioni ricevute, seppur imperfetti, erano dei proxy di qualità all’interno della stessa disciplina (ma mai fra discipline diverse!). Anche perché la maggior parte di noi misura il valore dei propri articoli, e valuta di conseguenza dove sottoporli.
    La digitalizzazione, la facilità di condividere scansioni caserecce prima, i PDF originali poi, e SciHub ora dissuade le biblioteche di ciascun dipartimento o istituto ad avere la propria copia fisica e quindi a pagare il proprio abbonamento. Ciò “costringe” gli editori ad aumentare il prezzo per mantenere il fatturato. Un modello non sempre sostenibile dagli editori.
    Gli editori, sono quindi corsi ai ripari inventandosi l'”Open Access with Article Processing Charges”. Non per amore della scienza, ma per il loro (legittimo) profitto.
    Come evitare di dilapidare i fondi?
    Personalmente preferisco la serietà (ma ogni tanto mi contraddico) di riviste a sottoscrizione con modello OA Green o che almeno consentano almeno di “postare” pre- o post-print.
    Come sarebbe un mondo se fosse vietato spendere fondi della ricerca per pubblicare, ma al contrario fossero gli editori, per aggiudicarsi, gli articoli migliori, a pagare le istituzioni degli autori?

    @Nicolao: ll cartoon e la pagine su ROARS sull’argomento mi erano già ben note, ed anche le critiche ivi esposte da altri.

    • Giuseppe De Nicolao says:

      “@Nicolao”
      _________
      De Nicolao

    • Paola Galimberti says:

      @Beccherelli Entrambi usano la parola Open Access
      ————–
      La definizione di Open Access si trova chiaramente descritta qui http://www.budapestopenaccessinitiative.org/read
      e qui
      https://openaccess.mpg.de/Berlin-Declaration.
      Le consiglio visto che le idee mi paiono un po’ confuse, la lettura di un testo in cui i temi che lei tocca (malamente) sono affrontati in maniera seria http://bfp.sp.unipi.it/rete/oldenburg.htm
      Nessuno dei commentatori ha sostenuto che l’OA gold sia la strada da percorrere, anzi, le politiche (le poche) attualmente in vigore nei nostri atenei sono politiche di OA green. Quasi tutti gli atenei sono dotati di un archivio istituzionale (IRIS) basato su Dspace la cui funzione in tutto il mondo è primariamente quella di ospitare i metadati e i full-text dei lavori di ricerca, cioè quella di essere un institutional repository.
      Quanto poi al discorso su IF e maggiore qualità delle riviste in abbonamento è totalmente privo di fondamento. Basta collegarsi a retraction watch. Ma qui si apre un altro discorso che riguarda i comportamenti opportunistici legati ai sistemi di valutazione e non all’oa.

    • Giuseppe De Nicolao says:

      P. Galimberti: “Quanto poi al discorso su IF e maggiore qualità delle riviste in abbonamento è totalmente privo di fondamento. Basta collegarsi a retraction watch.”
      _________________________
      Tempo fa avevamo riprodotto questo interessante grafico:


      _________
      «Le classifiche di riviste basate sull’Impact Factor aiutano a prevedere l’impatto e l’affidabilità scientifica degli articoli? Pare di no. Inoltre, sono le riviste a più alto IF a collezionare il maggior numero di ritrattazioni. Il blog Retraction Watch documenta i casi di ritrattazione, ma ha poco seguito in Italia. Persino quando si parla di una neo-eletta alla Camera dei Deputati.»
      _________
      http://www.roars.it/online/ritrattazioni-retractions/

  12. Romeo Beccherelli says:

    @Galimberti. Se “Nessuno dei commentatori ha sostenuto che l’OA gold sia la strada da percorrere, anzi, le politiche (le poche) attualmente in vigore nei nostri atenei sono politiche di OA green” significa che non vi è ragione nel contendere.
    Auguriamoci che il legislatori nazionali e comunitari siano del nostro stesso comune avviso e non si facciano influenzare dai miliardari interessi nell’utilizzo improprio del termine OA da parte degli editori.
    Temo però che i redattori della dichiarazione di Berlino non siano del nostro comune avviso. Infatti hanno scritto:
    “We will pursue this transformation process by converting resources currently spent on journal subscriptions into funds to support sustainable OA business models. Accordingly, we intend to re-organize the underlying cash flows, to establish transparency with regard to costs and potential savings, and to adopt mechanisms to avoid undue publication barriers.”

    Gli interessi economici degli editori sembrerebbero ben tutelati nella dichiarazione “re-organize the underlying cash flows”.
    Chissà, se tutti i bibliotecari siano stati informati degli effetti sulla loro categoria professionale di questa riorganizzazione.
    Non sono particolarmente fiducioso che lo desiderata riorganizzazione del cash flows comporterà che ogni euro risparmiato dalle sottoscrizioni e dalla gestione delle biblioteche fisiche verrà trasferito nella disponibilità degli autori scientifici per sopportare i costi.

    @Galimberti & De Nicolao: Il grafico che correla IF elevato con alta ritrattazione appare coerente con una correlazione (seppure parziale) fra IF e qualità attesa. Infatti, in caso di articolo falso o plagiato pubblicato su una rivista ad elevato IF, molti leggano, parecchi cercano di ripetere l’esperimento, e se nessuno vi riesce, alcuni cominciano a lamentarsi ad alta voce, soprattutto se hanno avuto progetti finanziati ispirati da quel lavoro e non riescono a fornire i deliverables attesi ai loro finanziatori.
    Forse alcuni ricorderanno il caso di Jan Hendrick Schoen una quindicina di anni fa: http://www.nature.com/news/2002/020923/full/news020923-9.html

    Appare coerente che le riviste a più alto IF cerchino di correre ai ripari con le ritrattazioni per tutelare la propria credibilità ed il proprio valore commerciale.
    https://www.nature.com/nature/journal/v468/n7320/full/468006b.html
    Appare coerente che pochi si curino di ritrattare da una rivista notoriamente mediocre. Appare coerente che nessuno perda tempo a denunciare un articolo farlocco o plagiato su una rivista con IF infimo. Appare coerente che gli editori di una rivista notoriamente mediocre siano poco incentivati a “tirare” le orecchie ad autori mediocri.
    @Galimberti: “Quanto poi al discorso su IF e maggiore qualità delle riviste in abbonamento è totalmente privo di fondamento. Basta collegarsi a retraction watch.”
    Non credo nessuno sostenga di buon senso (probabilmente neanche l’ANVUR…) che l’IF o altri singoli parametri bibliometrici forniscano il valore “vero” di un lavoro scientifico, del suo autore o della sua istituzione di appartenenza.
    Parimenti, sfugge la base scientifica su cui si possa asserire che qualunque parametro quantitativo (comunque definito), e la qualità scientifica (comunque definita), abbiano sempre e comunque una correlazione identicamente nulla, o siano addirittura anti-correlati (correlazione unitaria negativa).

    • Paola Galimberti says:

      La dichiarazione di Berlino risale a quasi vent’anni fa. Nell’epoca di internet è un periodo lunghissimo. Nel frattempo le forme di pubblicazione possibile si sono moltiplicate. Molti esempi sono stati citati in questa discussione. Dalle piattaforme degli atenei, alle proposte delle medaglie Fields, dagli archivi istituzionali a quelli disciplinari. Molti editori hanno modificato le loro politiche per cui la maggior parte dei grandi editori permette una qualche forma di open access green (pre/post print)
      La situazione risulta oggi molto più complessa che all’epoca della Dichiarazione di Berlino. Non è affatto detto che per pubblicare in una rivista Open Access si debbano sborsare migliaia di euro.
      https://blogs.openaire.eu/?p=1861
      @Romeo Beccherelli “Appare coerente che pochi si curino di ritrattare da una rivista notoriamente mediocre. Appare coerente che nessuno perda tempo a denunciare un articolo farlocco o plagiato su una rivista con IF infimo.”
      Appare coerente solo a lei. L’autore che è stato plagiato chiederà comunque la retraction indipendentemente dall’IF della rivista, così come lo farà chi, leggendo l’articolo perché la tematica rientra nel suo ambito di ricerca,riscontrerà errori palesi.

    • Giuseppe De Nicolao says:

      Romeo Beccherelli: «Non credo nessuno sostenga di buon senso (probabilmente neanche l’ANVUR…) che l’IF o altri singoli parametri bibliometrici forniscano il valore “vero” di un lavoro scientifico»
      _____________________
      Come riportato in questo grafico, l’ANVUR usa esattamente IF (o indicatori concettualmente simili) e citazioni per attribuire i voti della VQR a cui si attribuisce il valore di misuratori della “qualità” della ricerca e che determinano FFO premiale, accreditamento dei dottorati e, in futuro, individuazione dei dipartimenti di eccellenza.


      L’abuso degli indicatori bibliometrici, seppure particolarmente grave in Italia, è un problema internazionale. Non si spiegherebbe altrimenti il numero di prese di posizione individuali e istituzionali di cui ho fornito un campione:

      http://www.roars.it/online/vqr-le-classifiche-a-sua-insaputa-del-gev-01/comment-page-1/#comment-63182

    • Giuseppe De Nicolao says:

      “sfugge la base scientifica su cui si possa asserire che qualunque parametro quantitativo (comunque definito), e la qualità scientifica (comunque definita), abbiano sempre e comunque una correlazione identicamente nulla, o siano addirittura anti-correlati (correlazione unitaria negativa)”
      ______________
      A me sfugge la base scientifica di attribuire affermazioni mai fatte. Come avevamo scritto su Roars, “Secondo i dati passati in rassegna da Brembs e Munafo sono proprio le riviste con più elevato Impact Factor a collezionare il maggior numero di ritrattazioni”. Questa affermazione si basa su dati e non fa riferimento a generalizzazioni relative a “qualunque parametro quantitativo (comunque definito)” e a nozioni di “qualità scientifica (comunque definita)” e nemmeno menziona “correlazione identicamente nulla” e tanto meno “correlazione unitaria negativa”. Chi lavora in ambito scientifico non dovrebbe argomentare in modo così impreciso, ma noto con disappunto che quando si discute di valutazione della ricerca molti colleghi pensano di entrare in una “zona franca” non assoggettata alle comuni regole del rigore scientifico. Che il caso Schön testimoni una maggiore affidabilità delle riviste ad alto IF (Science: 8 retractions, Nature: 7 retractions, Physical Review journals: 6 retractions) è una tesi affascinante. Con questa logica, il Karolinska avrebbe dovuto guadagnare reputazione dal caso Macchiarini. Nella realtà, sono rotolate un po’ di teste eccellenti:
      http://www.roars.it/online/il-karolinska-travolto-dal-caso-macchiarini-is-the-reputation-of-the-medical-establishment-worth-more-than-human-life/

  13. Roberto Caso says:

    @Romeo Beccherelli: “La digitalizzazione, la facilità di condividere scansioni caserecce prima, i PDF originali poi, e SciHub ora dissuade le biblioteche di ciascun dipartimento o istituto ad avere la propria copia fisica e quindi a pagare il proprio abbonamento. Ciò “costringe” gli editori ad aumentare il prezzo per mantenere il fatturato. Un modello non sempre sostenibile dagli editori.
    Gli editori, sono quindi corsi ai ripari inventandosi l’”Open Access with Article Processing Charges”. Non per amore della scienza, ma per il loro (legittimo) profitto.
    Come evitare di dilapidare i fondi?
    Personalmente preferisco la serietà (ma ogni tanto mi contraddico) di riviste a sottoscrizione con modello OA Green o che almeno consentano almeno di “postare” pre- o post-print”.

    L’aumento dei costi degli abbonamenti ad accesso chiuso precede di molti anni la diffusione dell’OA.
    Non è in relazione all’OA, ma al potere oligopolistico degli editori, il quale a sua volta dipende dalla bibliometria.
    Non si capisce perché solo oggi ci si preoccupa delle risorse che vengono impiegate per gli Article Processing Charges e non ci si è preoccupati per decenni di quanto costavano gli abbonamenti ad accesso chiuso. La biblioteca della mia università spende quasi 3 milioni di Euro l’anno per mantenere gli abbonamenti ad accesso chiuso. Si potrebbero fare molte cose alternative con 3 milioni.

    Romeo Beccherelli quando cita la dichiarazione di Berlino non si riferisce alla Dichiarazione del 2003
    https://openaccess.mpg.de/Berlin-Declaration

    Ma alla recente proposta di Schimmer & C.
    http://pubman.mpdl.mpg.de/pubman/faces/viewItemOverviewPage.jsp?itemId=escidoc:2148961

    Beccherelli ha ragione a criticare la proposta di Schimmer, come ha ragione a denunciare il fatto che i grandi editori commerciali stanno speculando sul golden OA (author’s pay).
    La proposta di Schimmer porterebbe a un mondo forse migliore per il fatto di avere tutto in OA, ma non risolverebbe il problema della concentrazione di potere di controllo della scienza nelle mani di pochi soggetti.
    Un ecosistema delle pubblicazioni tutto OA ma che continuasse a basarsi sul feticismo della bibliometria riproporrebbe in una veste diversa gli oligopoli della scienza.
    Ed eccoci di nuovo al punto essenziale, occorrerebbe dare un nome diverso – su questo punto molti commenti hanno colto nel segno – all’OA che non vuole solo pubblicazioni ad accesso gratuito e libero, ma anche una scienza eticamente orientata alla ricerca della verità e non alla generazione di profitto.
    La green road è al momento sicuramente una strada importante che deve essere perseguita, ma non è la soluzione del problema.
    Il business si è spostato da tempo su altri aspetti del mercato delle pubblicazioni.
    I nuovi intermediari del mercato dell’informazioni competono molto di più sul controllo dei dati e dei metadati che sul controllo delle pubblicazioni.
    Si pensi alla recente acquisizione di SSRN da parte di Elesevier e si pensi anche al modello di business praticato da Academia.edu.
    Inoltre si pensi a Google Scholar e a Google. Questi ultimi sfruttano i dati personali e il feticismo bibliometrico per fare filtro anche sul materiale pubblicato in OA.
    Ed eccoci al punto. Le università e le altre istituzioni no profit avrebbero dovuto sviluppare – come all’inizio della storia di Internet e come ancora si sognava di fare ai temi della Dichiarazione di Berlino del 2003 – sistemi di pubblicazione e gestioni
    e delle informazioni scientifiche alternativi al dominio dei grandi operatori commerciali. Avrebbero dovuto investire non solo in golden e green OA ma anche in motori di ricerca e nuove infrastrutture di comunicazione della scienza.
    Ora sono solo un ingranaggio della logica commerciale. E lo sono per precise scelte di politica generale. Se esistono nelle nostre università italiane “commissioni ranking” e “delegati rettorali al posizionamento” occorre ammettere che molti di coloro che hanno commentato il post di Paola Galimberti – compreso chi scrive – vivono nelle riserve indiane…

    • Paola Galimberti says:

      @Roberto Caso “Ed eccoci di nuovo al punto essenziale, occorrerebbe dare un nome diverso – su questo punto molti commenti hanno colto nel segno – all’OA che non vuole solo pubblicazioni ad accesso gratuito e libero, ma anche una scienza eticamente orientata alla ricerca della verità e non alla generazione di profitto.”
      C’è un altro punto essenziale, Roberto, ed è la mancanza del sistema, che è anche il motivo per cui questo post è stato scritto.
      Di fronte a quanto si sta facendo in Europa, alle politiche della EU (spesso contraddittorie), alle iniziative della Max Planck Gesellschaft come si pone l’Italia? Le esigenze del Paese sono rappresentate? Da chi? E quale posizione porta avanti l’Italia? Sappiamo quando spende il tuo ateneo, ma abbiamo una idea di quanto spenda l’intero sistema per l’informazione scientifica? E quanto si spende già nei nostri atenei per l’open access gold?

    • Alberto Baccini says:

      E quanto spende complessivamente il sistema per Scopus e WoS?

  14. Roberto Caso says:

    @Paola Galimberti: “C’è un altro punto essenziale, Roberto, ed è la mancanza del sistema, che è anche il motivo per cui questo post è stato scritto”.
    Siamo perfettamente d’accordo. Conosco bene la ragione del tuo post (e le stesse cose le abbiamo scritte, in forma diversa, assieme). In Italia al MIUR e all’ANVUR non interessa il sistema dell’OA. Quel che è peggio non interessa ai ricercatori e ai professori, che ormai passano la loro vita a escogitare meccanismi per scalare i tanti ranking in circolazione.
    Ciò non toglie che occorre sempre domandarsi quale sia lo scopo ultimo delle politiche di sviluppo dell’OA.
    Prendiamo ad es. le politiche dell’UE. Sono meritorie da tanti punti di vista, ma se l’UE tenesse davvero all’OA e all’OS non avrebbe elaborato l’orribile proposta per il copyright nel mercato unico digitale. E cito solo una delle più evidenti contraddizioni.
    Dunque, sicuramente servono politiche generali e sistemiche sull’OA e sull’OS, ma occorre sempre saper bene qual è l’obiettivo di fondo.
    Dal mio punto di vista una politica generale dell’OS non può prescindere dall’abbandono di una logica valutativa che riduce la ricerca della verità a “prodotto”.

    • “I nuovi intermediari del mercato dell’informazioni competono molto di più sul controllo dei dati e dei metadati che sul controllo delle pubblicazioni.”

      Questo non bisognerebbe mai stancarsi di diffonderlo e ripeterlo…

      “In Italia al MIUR e all’ANVUR non interessa il sistema dell’OA.”

      Banalmente vero, ma

      “Quel che è peggio non interessa ai ricercatori e ai professori, che ormai passano la loro vita a escogitare meccanismi per scalare i tanti ranking in circolazione.”

      Questa affermazione però sarebbe da dimostrare… A parte una buona metà di lavoratori che sono sotto completo ricatto. I miei colleghi cercano di pubblicare su “buone” riviste, dove c’è un discreto consenso su cosa significa “buono”, e non necessariamente correlato con gli indici. Molte riviste “buone” sono di società scientifiche e non di grandi editori. Ma forse la matematica è un caso molto specifico e leggermente fuori norma in questo.

  15. Romeo Beccherelli says:

    @Nicolao. Se Schoen avesse pubblicato sul giornalino ciclostilato in cantina, qualcuno si sarebbe preoccupato di ritrattare?
    Il redattore è persona intelligente, sa presentare le sue posizioni, e probabilmente sa che affiancare due frasi ed un grafico sortisca esattamente l’obiettivo di convincere il lettore che l’IF (e qualunque parametro bibliometrico) siano intrinsecamente incorrelati o anticorrelati.

    Se invece ho interpretato erroneamente l’obiettivo, ed il redattore ritiene che bibliometria usato dai suoi pari (i membri dell’ANVUR e dei GEV) sia caratterizzata da una correlazione che pur non essendo unitaria (non lo credo neanche io), sia comunque maggiore di zero, può dirlo esplicitamente.
    Credo che il redattore condivida che sarebbe controproducente combattere per principio l’utilizzo di una metrica (anche se solo parzialmente quantitativa) per l’attribuire risorse e posizioni.
    Credo che sarebbe preferibile conoscere ex-ante cosa sia valutato (per persone ed istituzioni) nel prossimo quadriennio/quinquennio e con quale metrica (=deliverable quantitativo, milestone ) e poi essere valutati con quella metrica (compliance).
    Una metrica ex-post, espone a critiche legittime, e va evitata.
    Ma l’alternativa alla metrica è la massimizzazione dell’arbitrio del decisore di turno (se turni ci sono…) nel decidere concetti come “maturità scientifica” e “piena maturità scientifica”. Decisore che molto spesso è stato (ed ancora è…) parte in causa in quanto coautore. Decisore che difficilmente metterà a verbale che gli articoli scritto a quattro mani con il candidato suo allievo sono mediocri mentre quello del candidato esterno sono pietre miliari della scienza.
    @Caso e Baccini colgono perfettamente il punto. L’UE, invece di imporci l’OA lasciandoci liberi di rendicontare le spese per OA a pagamento, dovrebbe imporci l’OA green ed utilizzare le risorse per degli equivalenti pubblici, gratuiti ed indipendenti di ArXiv, SCUPUS e WoS.

    • Giuseppe De Nicolao says:

      “Se invece ho interpretato erroneamente l’obiettivo, ed il redattore ritiene che bibliometria usato dai suoi pari (i membri dell’ANVUR e dei GEV) sia caratterizzata da una correlazione che pur non essendo unitaria (non lo credo neanche io), sia comunque maggiore di zero, può dirlo esplicitamente.”
      __________________________
      Correlazione con cosa? In un discorso scientifico bisognerebbe precisarlo. Correlazione tra IF e citazioni? A questo proposito, c’è un noto articolo di Seglen, secondo il quale “Journal impact factors correlate poorly with actual citations of individual articles” (http://www.jstor.org/stable/25173791)


      ___________
      Il titolo dell’articolo di Seglen è significativo:
      _______________
      Why the impact factor of journals should not be used for evaluating research
      _______________
      Ed è pure significativo che Beccherelli si sia avventurato in questa discussione senza padroneggiare la letteratura di riferimento.
      Come pure è significativo (e preoccupante per un ricercatore) che Beccherelli confonda significatività statistica (“una correlazione che pur non essendo unitaria (non lo credo neanche io), sia comunque maggiore di zero”) con significatività pratica. Non a caso, è lo stesso errore che commette ANVUR quando cerca di sostenere che c’è una concordanza “sostanziale” tra la valutazione peer-review e quella bibliometrica della VQR (“kappa is always statistically different from zero, showing that there is a fundamental agreement” among peer review and bibliometrics, scrivono Ancaiani et al., tra cui anche Sergio Benedetto). Anche in quel caso la kappa è maggiore di zero, eppure “Peer review e bibliometria non concordano. Neanche in Italia” (http://www.roars.it/online/peer-review-e-bibliometria-non-concordano-neanche-in-italia/).
      In Italia, sembra che, oltre a mancare le basi del mestiere bibliometriche, manchino pure le basi del mestiere statistiche. Come spiega ogni buon testo di statistica:
      ________________
      “The primary product of a research inquiry is one or more measures of effect size, not P values”.
      ________________
      Cohen, J. (1990) ‘Things I Have Learned (So Far)’, American Psychologist, 45/ 12: 1304–12.
      ________________
      Il terribile dubbio è che chi difende algoritmi bibliometrici precari con la scusa che c’è una correlazione positiva (con qualcosa), ragioni nello stesso modo anche nel suo campo di ricerca. Riguardo all’Anvur abbiamo sempre detto che essere buoni scienziati nel proprio settore non dà patenti bibliometriche a chi la bibliometria non la sa e non l’ha studiata. Da un po’ di tempo a questa parte, leggendo quello che scrivono i difensori della bibliometria fai-da-te, sorgono dei dubbi anche su come siano abituati a lavorare nei loro settori di provenienza.

    • Giuseppe De Nicolao says:

      “Se Schoen avesse pubblicato sul giornalino ciclostilato in cantina, qualcuno si sarebbe preoccupato di ritrattare?”
      ___________________
      Col giornalino ciclostilato, lui e il suo capo non avrebbero sfiorato il Nobel:
      ___________________
      “Formerly a rising star in the field of nanotechnology, Schön was renowned for creating field-effect transistors, the backbone of modern electronics, out of tiny molecules. His work won him numerous awards from magazines and scientific organizations, and colleagues were beginning to tip him for a Nobel Prize.”
      ___________________
      http://www.nature.com/news/2002/020923/full/news020923-9.html
      ___________________
      Comunque la si giri, la vicenda Schön (come pure il caso Macchiarini con un editoriale di Lancet che ne celebra il presunto scagionamento: http://www.roars.it/online/caso-macchiarini-il-giornalismo-indipendente-e-piu-efficace-della-peer-review/lancet/) qualche dubbio lo instillano sulle garanzie che offrirebbero le riviste ad alto IF. Ed è chiaro che l’alternativa non è il ciclostile ma un modo di fare scienza e di pubblicarla meno basato sul prestigio dei contenitori (e il potere di chi li controlla), ma più “sound” e “open”. Una virata, che come osservato da Roberto Caso trova un enorme ostacolo in pratiche valutative che, oltre che pseudoscientifiche, consolidano le rendite di posizione. Nel caso Macchiarini gli interessi degli “eccellenti” erano tali e tanti da eludere tutti i controlli interni alla comunità scientifica (nel caso Macchiarini, senza la spinta decisiva di un giornalista, il Karolinska non avrebbe ammesso il problema). Nel caso Schön, è andata meglio, perché è stata la comunità scientifica a intervenire, ma la retraction di almeno 28 articoli apparsi in riviste di primo piano dà da pensare.

  16. Non mi sembra improbabile che i ricercatori privi di scrupoli prendano di mira in primo luogo i top journals.

    In un sistema basato sul feticismo delle riviste, è ben ovvio che, se voglio far carriera con la scoperta che gli asini volano, cercherò di piazzare il mio articolo *in primo luogo* su “Nature”, proprio come prenderei di mira Fort Knox piuttosto che il pollaio del vicino se desiderassi fare la rapina della vita. Infatti l’annuncio della mia scoperta zoologica su una rivista di livello inferiore servirebbe poco o nulla alla mia carriera e, in ogni caso, rischierebbe di passare inosservato.

    Il danno sociale di un articolo sugli asini volanti, è, inoltre, molto maggiore se il testo esce su “Nature” che se esce su “Lercio”: moltissimi, infatti, crederanno che gli asini volano perché l’ha scritto “Nature”. Quindi, mi sembra anche ragionevole preoccuparsi di più delle ritrattazioni di “Nature” che di quelle di “Lercio” – perfino se fosse vero che mediamente “Nature” è più affidabile di “Lercio”.

    La cosiddetta scientific misconduct è favorita dall’abitudine di considerare la pubblicazione su *certe* riviste come la conclusione del lavoro scientifico, che imprime, una volta per tutte, il marchio dell’eccellenza.

    Se la pubblicazione venisse invece trattata come l’atto di apertura di una discussione, nella quale si costruirà – o no – il consenso della comunità scientifica, la tentazione di ricorrere a simili scorciatoie sarebbe minore: per fare il colpo della vita con “Nature” devo solo ingannare l’editor e qualche revisore, mentre per aver successo in questo sistema dovrei riuscire a ingannare un numero molto maggiore, e indefinito, di lettori.

    Con l’accesso aperto sarebbe tecnicamente facilissimo rovesciare il processo: gli archivi aperti esistono già, così come esistono già strumenti per discutere quanto è vi è depositato – per esempio gli overlay journals, i moduli per la revisione paritaria aperta che insiste sugli archivi, le piattaforme del tipo di SJS e così via.

  17. Romeo Beccherelli says:

    @De Nicolao “Correlazione con cosa? In un discorso scientifico bisognerebbe precisarlo. ”
    @De Nicolao: “Come pure è significativo (e preoccupante per un ricercatore) che Beccherelli confonda significatività statistica (“una correlazione che pur non essendo unitaria (non lo credo neanche io), sia comunque maggiore di zero”) con significatività pratica.
    La domanda del redattore appare chiaramente trovare risposta nella critica successivamente riportata. Più esplicitamente, intendo correlazione fra IF e una misura della qualità, quantomeno qualità attesa.

    @De Nicolao: Non a caso, è lo stesso errore che commette ANVUR quando cerca di sostenere che c’è una concordanza “sostanziale” tra la valutazione peer-review e quella bibliometrica della VQR (“kappa is always statistically different from zero, showing that there is a fundamental agreement” among peer review and bibliometrics, scrivono Ancaiani et al., tra cui anche Sergio Benedetto).”

    Chiunque ritenga che tanto maggiore sia l’IF (o altri parametri bibliometrici), tanto peggiore sia la qualità dei lavori pubblicati, ha la facoltà di inviare i propri articoli scientifici esclusivamente su riviste non indicizzate, o con IF<0.1, e aperte, o postare esclusivamente su ArXiv.
    Chiunque ritenga la bibliometria una non-scienza, non è costretto a publicare su riviste di bibliometria ottenendo il paradossale (e sicuramente indesiderato) risultato di incrementare gli indicatori bibliometrici propri e della propria istituzione.
    Nel mio piccolo, "subisco" la bibliometria, che né mi affascina né mi turba, e quindi preferisco dediche le mie energie a studiare altro.
    Ma ritengo preferibile che ne abbia la funzione istituzionale (dei pari del redattore, mica miei!) o anche solo le competenze e le energie, contribuisca a definire ex-ante una metrica che consenta di discriminare, senza margine alcuno di discrezionalità, che il Candidato_A che ha pubblicato N articoli con una manciata di autocitazioni su riviste predatoria con H30, tutti con centinaia o migliaia di citazioni esterne.
    Personalmente non mi trovo in nessuno dei due estremi, ma comunque preferirei essere valutato, come singolo e come istituzione, mediante l’uso di una metrica quantitativa, anche se imperfetta ma nota ex-ante, piuttosto che dalla pura discrezionalità di un commissario che asserirà che gli articoli migliori sono quelli del Candidato_A, perché suo allievo o figlio del suo migliore amico e collega cui deve uno scambio di favori.
    Stesso discorso sulla valutazioni delle istituzioni, in cui non di rado si premiano quelle di provenienza o di maggiore vicinanza.
    Postulare l’errore metodologica di qualunque metrica porta anche chi è animato dalle migliori intenzioni, a facilitare il Candidato_A, contribuendo alla fuga all’estero del candidato_B.
    Il punto non è la metrica, ma che la metrica sia definita ex-ante per conseguire un obiettivo di sistema, e che i criteri siano quindi noti a tutti ex-ante, e non una metrica definito ex-post per “fittare” un particolare obiettivo personalistico o localistico.

    @Pievatolo: ha ragione che il potenziale rischio del danno sociale di una bufala o frode apparsa su Nature et similia è indubbiamente elevato. La serietà o non serietà dell’editore dovrebbe appunto essere misurata dalla disponibilità ad accettare, a discutere le critiche, a ritrattare le bufale sfuggite (o fatte passare) a revisori ed associated editor. È anche vero che la stragrande maggioranza della popolazione, imbattendosi in un articolo scientifico, possa avere qualche difficoltà a distinguere in una scala continua di reputazione, di qualità del lavoro pubblicato, nell’analizzare le critiche he l’articolo ha ricevuto (inseguendo ad esempio i lavori citanti), qualche difficoltà ad distinguere una rivista open Access seria da una predatoria. Non è infatti raro imbattersi nell’amico o conoscente che ti dice “l’ho letto in un articolo scientifico su Internet e quindi faccio questo o quello per curarmi”. Poi vagli a spiegare che non tutti gli articoli hanno pari significatività, credibilità, serietà, ecc. Quindi ogni strumento che consenta all’opinione pubblica di costruirsi una visione critica e corretta è benvenuta.

    • Giuseppe De Nicolao says:

      Beccherelli: «Più esplicitamente, intendo correlazione fra IF e una misura della qualità, quantomeno qualità attesa.»
      ______________
      Appunto: mi interesserebbe sapere a quale definizione di qualità (attesa o meno) ci si stia riferendo e, anche, come la si misuri (per poter valutare la correlazione).
      ==============
      Beccherelli: «Chiunque ritenga che tanto maggiore sia l’IF (o altri parametri bibliometrici), tanto peggiore sia la qualità dei lavori pubblicati, ha la facoltà di inviare i propri articoli scientifici esclusivamente su riviste non indicizzate»
      ______________
      Nessuno ha sostenuto questa tesi, semplicemente perché, all’infuori di Beccherelli, nessuno dei commentatori ha fatto riferimento ad una nozione di “qualità” senza definire cosa fosse. Sono stati citate delle osservazioni quantitative (e verificabili da chiunque) che evidenziano una correlazione positiva tra IF e ritrattazioni.
      =============
      Beccherelli: «Chiunque ritenga la bibliometria una non-scienza, non è costretto a publicare su riviste di bibliometria ottenendo il paradossale (e sicuramente indesiderato) risultato di incrementare gli indicatori bibliometrici propri e della propria istituzione»
      _____________
      Se Beccherelli si riferisce a me e ad Alberto Baccini, gli sfugge il fatto che il nostro approccio alla bibliometria è scientifico. Anzi, sia su Roars sia su riviste del settore, abbiamo criticato proprio alcuni esempi di pseudoscienza bibliometrica. A meno che non si pensi che chi ha smascherato Stamina ritenga la farmacologia una non-scienza.
      =============
      Beccherelli:«Nel mio piccolo, “subisco” la bibliometria, che né mi affascina né mi turba, e quindi preferisco dediche le mie energie a studiare altro»
      _____________
      Chi ha una formazione scientifica potrebbe sospettare che, se non si è studiato un argomento, si dovrebbe usare prudenza nei propri interventi. Personalmemte, non conosco la fisica quantistica e, proprio per questo, non mi sogno di intervenire a sproposito sull’argomento.
      =============
      Beccherelli: «Il punto non è la metrica, ma che la metrica sia definita ex-ante per conseguire un obiettivo di sistema, e che i criteri siano quindi noti a tutti ex-ante, e non una metrica definito ex-post per “fittare” un particolare obiettivo personalistico o localistico.»
      _____________
      Non conoscere l’argomento (e non aver nemmeno letto gli innumerevoli articoli su Roars) porta ad una visione caricaturale in cui l’unica alternativa è tra l’indicatore magico (“una metrica che consenta di discriminare, senza margine alcuno di discrezionalità”) e l’arbitrio assoluto (“la pura discrezionalità di un commissario che asserirà che gli articoli migliori sono quelli del Candidato_A, perché suo allievo o figlio del suo migliore amico e collega cui deve uno scambio di favori”). C’è un vasto consenso sui danni dell’uso automatico di indicatori (IF in particolare) per valutare singoli articoli e ricercatori. Per esempio, la Declaration on Research Assessment (DORA, http://www.roars.it/online/dora/) è stata sottoscritta da Science, Plos e PNAS e anche dall’HEFCE (l’ANVUR britannica per intenderci). Sull’uso degli indicatori bibliometrici nella valutazione indviduale (nessuno ha mai sostenuto che vadano ignorati) ecco un nostro articolo:
      http://www.roars.it/online/i-dieci-comandamenti-della-bibliometria-individuale/
      ______________
      In Italia, non solo si disattendono le raccomandazioni delle società scientifiche internazionali (anche IEEE, per esempio: http://www.roars.it/online/anche-lieee-contro-luso-di-indici-bibliometrici-per-la-valutazione-individuale/) ma si escogita una vera e propria Stamina bibliometrica:
      http://www.roars.it/online/bibliometria-anvuriana-se-la-conosci-la-eviti/

    • @Beccherelli
      Se i ricercatori stessi abbracciano l’idea che pubblicare sulle riviste di una lista sia un marchio di scientificità non c’è da stupirsi se i profani ritengono scientifico quanto è pubblicato in qualcosa che, per loro, somiglia a una rivista. Il profano imbocca, a suo modo, una scorciatoia che altri, apparentemente meno profani, hanno tracciato.

      Se i ricercatori credessero e sostenessero che il marchio della scientificità è la pubblicità e l’apertura alla discussione e alla correzione forse suonerebbero più coerenti e dunque più convincenti nello spiegare agli altri che certe teorie sono pseudoscientifiche proprio perché si sottraggono variamente all’onere della dimostrazione pubblica.

  18. Romeo Beccherelli says:

    ERRATA: “Ma ritengo preferibile che ne abbia la funzione istituzionale (dei pari del redattore, mica miei!) o anche solo le competenze e le energie, contribuisca a definire ex-ante una metrica che consenta di discriminare, senza margine alcuno di discrezionalità, che il Candidato_A che ha pubblicato N articoli con una manciata di autocitazioni su riviste predatoria con H30, tutti con centinaia o migliaia di citazioni esterne.”
    CORRIGE:
    “Ma ritengo preferibile che chi ne abbia la funzione istituzionale (dei pari del redattore, mica miei!) o anche solo le competenze e le energie, contribuisca a definire ex-ante una metrica che consenta di preferire, senza margine alcuno di discrezionalità, al Candidato_A che ha pubblicato N articoli con una manciata di autocitazioni su riviste predatoria, il candidato B con N articoli con H>30, tutti con centinaia o migliaia di citazioni esterne.”

  19. Romeo Beccherelli says:

    @ Pievatolo. Come ottenere il marchio di scientificità?
    Ad alcuni sembra che pubblicare su riviste sottoposte a un peer review, multiplo e possibilmente severo, i risulti, le procedure ed i metodi sia un accettabile modo per aprire una discussione possa aiutare a conferire una parvenza di scientificità al proprio lavoro. A volte il lavori migliora dopo i commenti dei revisori. A volte ci si accorge di un errore, a volte si torna a ripetere l’esperimento.
    Ad alcuni sembra preferibile che la rivista consenta al lettore di esporre commenti e risposte ai commenti.
    Ad alcuni sembra un metro di serietà che in presenza di errori conclamati l’autore o l’editore ritraggano.
    Non credo che sia la perfezione, ma se non un marchio, almeno un accenno di scientificità lo si può identificare.
    Altri forse hanno opinioni diverse.
    Personalmente amerei che per ogni rivista, a sottoscrizione o OA (comunque inteso) vi sia una pagina web per la discussione.
    Ricordo che qualche tentativo di open peer review ci fu: https://www.nature.com/nature/peerreview/debate/nature05535.html
    L’editore dichiarò di aver raccolto scarso interesse dalle parti. Forse la timidezza del tentativo (libertà ma non obbliga per gli autori di esporsi all’open peer review) può aver contribuito al suo limitato interesse.
    Sembrerebbe che invece questo OA con costi a carico dell’autore , funzioni da almeno un decennio, ma non ho approfondito:
    https://www.nature.com/nature/peerreview/debate/nature04988.html
    http://www.atmospheric-chemistry-and-physics.net/peer_review/interactive_review_process.html
    Probabilmente ci sono altri tentativi Spero, di cuore tutti riscuotono successo. Spero anche che non lucrino esageratamente.

    @De Nicolao: è legittimo per alcuni sostenere che all’ANVUR alcuni si comportino apprendisti geometri che non sappiano usare né metro né bilancia, o che il metro e la bilancia siano truccati per risparmiare sulle spese, o per tutelare questo o quell’interesse, se non addirittura per far crollare la casa.
    E’ encomiabile svelare gli errori del sistema (non leggerei ROARS se non lo credessi) ed ad adoperarsi per evitare che la casa crolli.
    Ma sarebbe opportuno contribuire tutti a costruire bilance e metri ragionevolmente accurate.
    Ma non è condivisibile condannare l’uso del metro e della bilancia perché divide i mattoni in lunghi e corti, leggeri e pesanti. Bisogna infatti rassegnarsi al fatto che metà dei mattoni avrà lunghezza inferiore alla mediana dei mattoni misurati, e che metà dei mattoni avrà massa inferiore alla mediana delle masse dei mattoni misurati.
    Le persone non sono mattoni, e possono migliorarsi.

    • Giuseppe De Nicolao says:

      Beccherelli: «Bisogna infatti rassegnarsi al fatto che metà dei mattoni avrà lunghezza inferiore alla mediana dei mattoni misurati, e che metà dei mattoni avrà massa inferiore alla mediana delle masse dei mattoni misurati.»
      _____________
      Un esempio che calza alla perfezione. Il problema è che è l’ANVUR a non rassegnarsi, tanto è vero che, secondo la nostra agenzia di valutazione, la definizione di mediana “pur univoca, lascia però un importante punto di ambiguità”:
      ______________
      «il concetto di mediana come “il valore di un indicatore o altra modalità prescelta per ordinare una lista di soggetti, che divide la lista medesima in due parti uguali”. Questa definizione, pur univoca, lascia però un importante punto di ambiguità […]».
      (citazione dal Documento ANVUR “Sul calcolo delle mediane per l’abilitazione nazionale“, settembre 2012; si veda: http://www.roars.it/online/abilitazioni-e-mediane-anvur-non-potuto-fare-altro-profumo-sotto-accusa/)
      _____________
      La questione non è puramente formale, perché il documento in questione, nelle intenzioni del direttivo ANVUR, doveva giustificare l’improvvisa ritrattazione di tutte le mediane dell’ASN e la sostituzione con nuove mediane che, miracolosamente, salivano per le “scienze dure” e scendevano per le scienze umane e sociali. In qualche modo era stata inventata una mediana la cui definizione si adattava alla disciplina scientifica a cui i conteggi si riferivano.


      vedi http://www.roars.it/online/mediane-truccate-analizziamo-le-prove/
      ________________
      Temo che a molti sfugga l’abisso in cui ci ha precipitato l’ANVUR. E se qualcuno non mi crede, provi a domandarsi cos’è una “frazione superiore” (ANVUR: «In pratica se l’indicatore è frazionario, si intende la frazione superiore», si veda: http://gisrael.blogspot.it/2012/10/bestiario-matematico-n-16-bis.html).
      Oppure ci si domandi come si possa valutare con formule che contemplano la divisione per zero (http://www.roars.it/online/matematica-senza-tabu-funzioni-e-utilita-della-sua-rd-iii-e-ultimo-capitolo/) e così via.
      Il problema è che la bibliometria anvuriana sta più o meno allo stesso livello logico della definizione univoca ma ambigua, ha la stessa natura fantastica della frazione superiore e la stessa praticabilità della divisione per zero.

  20. @Beccherelli
    L’esperimento di OPR in Nature fallì perché inserito in un sistema di tipo publish or perish: se mi contano gli articoli, perché dovrei perdere tempo a discutere?

    Nell’ambito delle scienze umane ci sono molte esperienze interessanti e gratuite, che però nascono da ideali diversi: per esempio quella di K. Fitzpatrick, che va avanti ormai da molti anni http://btfp.sp.unipi.it/it/2012/01/laccademia-dei-morti-viventi-parte-prima-la-revisione-paritaria/

    I due paradigmi non sono interamente compatibili: scegliere il publish or perish e l’accesso chiuso significa comprimere lo spazio per la discussione aperta, in più di un senso:

    1. una rivista tradizionale a pagamento permette di discutere solo a pagamento; a chi non paga gli articoli restano inaccessibili, almeno legalmente;

    2. non dubito che le osservazioni dei referee siano in molti casi utili: peccato che rimangano nascoste e non possano dare origine a discussioni pubbliche dalle quali tutti possano imparare. Con la revisione paritaria anonima in una rivista ad abbonamento, inoltre, io posso solo controllare solo gli esiti, se ho i soldi per accedere agli articoli, e non i processi. Roberto Caso ha raccolto qualche esempio interessante sull’importanza del controllo dei processi. Avremo modo di discuterne. Intanto segnalo questo articolo, scritto da uno dei più famosi filosofi della scienza britannici, che denuncia, appunto, una crisi degli esiti che è per lui dovuta a una crisi dei processi:
    https://www.theguardian.com/science/political-science/2016/jun/08/how-should-we-treat-sciences-growing-pains

    Infine, posso prendere sul serio la preoccupazione sul lucro dell’editoria predatoria solo se viene contestualmente presa sul serio quella dei costi altissimi delle riviste ad abbonamento edite dagli oligopolisti dell’editoria scientifica: per esempio l’università di Pisa, solo per le riviste Elsevier (il cui margine di profitto è stabilmente più vicino al 40% che al 35%), spende un milione di euro all’anno. Questa nemmeno recentissima conferenza di Lessig spiega la questione per sommi capi: http://btfp.sp.unipi.it/it/2011/06/lawrence-lessig-the-architecture-of-access-to-scientific-knowledge-just-how-badly-we-have-messed-this-up/

Leave a Reply