20 citazioni per anno al modico prezzo di 5000 Rupie, circa 62 €. Niente male davvero. Sono ben noti i tentativi più o meno fraudolenti di incrementare l’impact factor delle riviste e l’indice H degli autori e spesso se ne è discusso anche su queste pagine. Adesso c’è anche un’azienda che si dice specializzata in questo tipo di operazioni. «What we do? […] your articles citation count/ year will be increased drastically. As a result, h-index and i10 index will also be increased. […] Membership fee: Rs.5000/ year Our service: 20 citations/ year». Ma non solo. “Complete support for your successful PhD completion” si legge nella prima pagina della brochure che elenca i servizi offerti: Drafting research and review articles on par with International Standard, Writing Thesis/Dissertation, book chapters, technical notes, short papers, etc, Enhancing your academic profile, scholar metrics and research profile e così via. Con diverse classi di servizio per la “publishing assistance”: si va dalle conferenze IEEE, Springer, Elsevier (classe 3) alle riviste indicizzate in Scopus (classe 2) per arrivare a quelle indicizzate nello Science Citation Index (classe 1). Da stabilire cosa ci sia di vero. Ancora più interessante sarebbe sapere se si tratta o meno di un caso isolato e quanti clienti si rivolgano a questo tipo di consulenti. Una cosa è certa: l’industria degli indicatori bibliometrici si sta mangiando un poco alla volta quella che una volta era la scienza.

 

Sono ben noti i tentativi più o meno fraudolenti di incrementare l’impact factor delle riviste e l’indice h degli autori, e spesso se ne è discusso anche su queste pagine. Adesso appare un’azienda che si dice specializzata in questo tipo di operazioni. Circolano infatti e-mail come questa:


From: citation easysynopsis <citation.easysynopsis@gmail.com> Date: 2018-08-13 7:55 GMT+02:00
Subject: Improve your citations in google scholar profile
To: citation easysynopsis <citation.easysynopsis@gmail.com>

Dear Sir/Madam

Warm Greetings.
We, “The Easysynopsis” team operates a repository to help the researchers. We introduce a value

added service for the researchers to promote their publications to International level using our network. The service quality is quantified through Google scholar Profile, which will be created by us if you do not have. Please refer the enclosed profile (example), where the citations (Right hand side column; below “Citation Indices”) play crucial role to increase your h-index and i10 index. Please refer below for more details

The h-index (WIKIPEDIA: http://en.wikipedia.org/wiki/H-index) is an index that attempts to measure both the productivity and citation impact of the published body of work of a scientist or scholar. The index is based on the set of the scientist’s most cited papers and the number of citations that they have received in other publications.

What we do?

We create Google Scholar Profile (if you do not have already) and manage it, so that your articles citation count/ year will be increased drastically. As a result, h-index and i10 index will also be increased.

What you have to do?

You have to become the member of this value – added service and to provide the required credentials to manage this account

Membership details

Membership fee: Rs.5000/ year Our service: 20 citations/ year

If you are interested to know more about this service, Please contact us at:

Phone: 04651-251650
Mobile: +91-8870894199/+91-9865614650
Mail id : citation.easysynopsis@gmail.com / contact.easysynopsis@gmail.com
Website: www.easysynopsis.com


L’azienda offre dunque 20 citazioni per anno al modico prezzo di 5000 Rupie, circa 62 €. Niente male. Ma non solo. A sfogliare il sito, si scopre che si tratta di una sorta di ibrido fra una consultancy firm e il CEPU; significativo il fatto che si vantino di contatti con IEEE, altre società scientifiche e riviste di ogni sorta. Per farne che? Ecco cosa si legge nella brochure che fin dalla prima pagina promette
Complete support for your successful PhD completion
Davvero notevole ed economico. Da stabilire cosa ci sia di vero. Ancora più interessante sarebbe sapere se si tratta o meno di un caso isolato e quanti clienti si rivolgano a questo tipo di consulenti.
Una cosa è certa: l’industria degli indicatori bibliometrici si sta mangiando un poco alla volta quella che una volta era la scienza.
Send to Kindle

14 Commenti

  1. Interessante osservare che il “servizio” offerto viene “quantificato” usando Goolge Scholar ma non WoS o Scopus, che non sono facilmente manipolabili. Sarebbe inoltre interessante capire se le 20 citazioni procedano per multipli (paghi 620 ne arrivano 200).

    • No Giuseppe, il sito promette riscontro bibliometrico in google scholar. Promette persino di creare un profilo scholar, come sei chi vi si rivolge non lo sapesse fare da solo.

    • Se, come fanno intendere, sanno scrivere paper su commissione accettati in conferenze o persino riviste indicizzate su Scopus e SCI (Science Citation Index, ovvero WoS/ Clarivate), sono ovviamente anche in grado di “pompare” i relativi indici citazionali, h-index incluso (basta indirizzare bene le citazioni contenuti negli articoli su commissione). Siamo d’accordo che su Google Scholar è un gioco da ragazzi, ma anche su Scopus e SCI le “scalate a pagamento” sono tutt’altro che impossibili. Basta far leva su qualche conferenza “facile” (purché indicizzata). È questo uno dei “ventri molli” della bibliometria.
      Tutte cose note da una decina di anni: vedi Ji-Huan He (il compare di El Naschie) che faceva incetta di citazioni proprio su “Journal of Physics: Conference Series” (“a fast, flexible and affordable proceedings service”, si autodefinisce). Da notare che Ji-Huan He non era (soltanto) una superstar bibliometrica per Google Scholar, ma aveva scalato la classifica citazionale più prestigiosa, quella di Classe I (Thomson Reuters). Gli “esperti” della Thomson Reuters (sì, proprio quelli che pubblicano le liste degli scienziati Highly Cited) lo avevano celebrato come “astro nascente” della computer science.


    • Giuseppe, senza polemica, ma ogni volta tu riposti sempre lo stesso caso. Sempre e solo quello. Uno è un po’ poco per fare statistica. Se si ragiona così, poi non lamentiamoci di quei giornalisti che presentano 1 o 2 concorsi truccati per poi fare intendere che sia la norma, o presentano due o tre casi di parentela, per poi dire che all’univ. sono tutti parenti. E’ assolutamente ovvio che si ogni regola ha un suo coefficiente di distorsione. Ma questo non vuol dire molto.

    • Il punto è se sia possibile dopare anche gli indicatori del Science Citation Index e di Scopus, oltre che quelli di Scholar. Il caso di J.H. He dimostra che sì, è possibile (ed è risaputo da una decina di anni). In ambito logico, quando si discute di impossibilità, basta un controesempio. Se lo ha fatto He, possono farcela anche altri mercenari dell’H-index. Non sto sostenendo che una grande maggioranza degli Highly Cited hanno drogato i loro indicatori con pratiche poco etiche. Sto sostenendo che questi indicatori sono scalabili da chi ha pochi scrupoli, il che evidenzia quanto sia irresponsabile associare a questi numero degli incentivi automatici. La breccia è aperta e non solo su Google Scholar.

    • Da notare anche che nell’ultimo post FB presenti positivamente un articolo di due economisti che sostengono che non bisogna guardare a dove viene pubblicato un lavoro, ma piuttosto al suo singolo impatto bibliometrico. Quindi in quel caso le citazioni sembrano convincerti come misura approssimativa della qualità :D. Che le citazioni
      non misurino tutto mi pare ovvio, ma che guardando alle code la loro correlazione con la qualità sia altissima, mi pare altrettanto ovvio. Penso che negare l’ovvio non faccia altro che rafforzare le posizioni di chi invece magari la bibliometria la vuole usare in un modo errato. PS l’effettività del servizio offerto da queste persone andrebbe anch’essa misurata in qualche modo.

    • Se ci stiamo riferendo alla mia segnalazione di “The Tyranny of the Top Five Journals” (https://www.ineteconomics.org/perspectives/blog/the-tyranny-of-the-top-five-journals), Mingione deve aver letto male o non aver letto affatto. James Heckman (Nobel per l’economia) e Sidharth Moktan non sostengono affatto che “non bisogna guardare a dove viene pubblicato un lavoro, ma piuttosto al suo singolo impatto bibliometrico”. Basta leggere il rimedio che propongono:
      ___________________________
      “The appropriate solution to the problem will require a significant shift from the current publications-based system of deciding tenure, to a system that emphasizes departmental peer-review of a candidate’s work. Such a system would give serious consideration to unpublished working papers and to the quality and integrity of a scholar’s work. By closely reading published and unpublished papers rather than counting placements of publications, departments would signal that they both acknowledge and adequately account for the greater risk associated with scholars working at the frontiers of the discipline.

      A more radical proposal is to shift publication away from the current fixed format journals and towards an open source arXiv or PLOS ONE format. …”
      ___________________
      Nell’articolo, il riferimento alle citazioni rientra nel tentativo di capire se le riviste “top five” si distinguano così tanto dalle altre in termini di “influence” o “impact” (che correttamente gli autori distinguono dalla nozione di “quality”). La conclusione è che:
      ___________________
      “The current practice of relying on the T5 has weak empirical support if judged by its ability to produce impactful papers as proxied by citation counts.”
      ___________________
      A me sembra una specie di dimostrazione per assurdo, non una promozione dell’uso delle citazioni per valutare i singoli, tanto è vero che le soluzioni proposte vanno in tutt’altra direzione.

    • Sul primo punto. Come ovvio e come ho già detto, si tratta di una questione statistica. Se tutti i casi che puoi riportare si riducono ad uno, che per di più viene rapidamente fissato, questo significa che è possibile dopare a certi livelli in via teorica, ma che è molto poco facile nella realtà. Sicuramente una percentuale di questo genere è episodica e non fa molto testo. Altri metodi invece, basati sul “giudizio esperto”, riportano tristemente distorsioni molto elevate. Il proverbio “l’eccezione conferma la regola” non sta lì a caso. Continuare a speculare sul singolo vecchio caso non mi pare dica molto. Per ora non si è aperta nessuna breccia se non nella fantasia. Comunque mi piacerebbe capire se altri metodi hanno una distorsione così bassa. Per me una distorsione del 5-10% (rilevabile poi via analisi incrociata) in una valutazione massiva è un successo (visto quello che succede con altri metodi e in altri ambiti, prima di tutto concorsuali, e in quello della pubblicazione su riviste di prestigio). Questo significa, trovare 2/300 altri casi del genere. Mi spiace Giuseppe De Nicolao, ma siamo molto lontani.

      Sul secondo punto, è un fatto logico. Se uno usa le citazioni per invalidare l’IF e come misura approssimativa della qualità, allora significa che sta implicitamente dando un po’ di credito alle seconde. Sulla possibilità che tutta la valutazione sia fatta *esclusivamente* leggendo i lavori da parte di membri del dipartimento, sarei molto cauto. Chi ha la competenza per farlo con l’iperspecializzazione odierna? E’ un po’ la favola della valutazione massiva che si fa “leggendo” tutti i lavori. Una favola, appunto. Nelle valutazioni internazionali (concorsi) più serie che ho visto fare si chiede a dei referee e si chiede di tenere conto di una serie di parametri. Tra quelli di ricerca: il giudizio personale del referee stesso (spesso il meno affidabile per l’iperspecializzazione di cui sopra e perché lascia al referee anche molto spazio per esercitare preferenze di scuola), le riviste su cui vengono pubblicati i lavori (tipicamente i referee seguono la suddetta tirannia delle riviste top, dando giudizi in base a dove vengono pubblicate le cose senza entrarci troppo dentro) e poi l’impatto bibliometrico, che serve appunto a controbilanciare il secondo punto e che dà, quando considerato a livelli alti (e quindi non quelli anvur) una misura di quanto il lavoro sia stato innovativo per la comunità.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.