C’è animazione e speranza tra coloro che sono venuti a conoscenza dell’imminente riforma della valutazione della ricerca a livello europeo, annunciata dallo Scoping Report della Commissione europea Towards a Reform of the Research Assessment System e il susseguente Agreement on Reforming Research Assessment, sottoscritto da Università, centri di ricerca, agenzie europee (inclusa ANVUR) e associazioni varie. Leggere lo Scoping Report procura o stesso sconcerto di un protocollo messo a punto da una comunità di tossicodipendenti sotto il perdurante effetto di sostanze, il quale accompagni ad un’accurata messa in guardia dagli effetti, il richiamo a un impiego consapevole, con tanto di indicazioni in fatto di quantità, posologia, interazioni da evitare. Assumendo però che l’assunzione di quelle sostanze sia parte naturale e oggi necessaria dell’esperienza comune, seppure certo da innovare (un’assunzione in sintonia con le sfide del presente, aperta al futuro…). Non è tuttavia ingiustificato parlare di ‘riforma’. Vi è un visibile intento di limitare strumenti e indicatori di carattere quantitativo, facendone un uso responsabile e di puntare piuttosto sulla ‘qualità’, cioè su indicatori in grado di catturare e restituire questa in maniera oggettiva e misurabile. Una riforma, però, che non mette in discussione i princìpi cardine della valutazione, ma li porta all’estremo: una liberalizzazione della valutazione, tesa ad ampliarne il raggio per ‘valorizzare’ tutto ciò che deve e dovrà ricadere nell’attività di ricerca e innovazione, intese a loro volta in senso sempre più ampio. E per valorizzare s’intende qui, come sempre nella valutazione, estrarre valore/denaro, ‘quasi-moneta’. Sulle pagine del catalogo istituzionale della ricerca Iris – il database dove ogni ricercatore universitario è tenuto a indicare tutti prodotti della propria ricerca e validarli, pena perdere scatto stipendiale, finanziamento di progetti, avanzamenti di carriera e simili – compare, accanto agli indicatori citazionali, l’indicatore di impatto sociale Plum di Elsevier, per quanto ancora non attivo. Viene da chiedersi che numero mai avrebbe registrato il 6 agosto del 1945 – il nome di Robert Oppenheimer.
Questo articolo è stato scritto nel gennaio 2023 per il volume collettaneo “Perché la valutazione ha fallito. Per una nuova Università pubblica”, di prossima uscita per Morlacchi Editore, a cura di Ambrogio Santambrogio.
_______________________
Prova a pesare Annibale,
ora che è solo cenere,
e dimmi quanti grammi
la stadera segnerà…
(G. Gaber, Sexus et Politica, 1972)
C’è grande animazione e speranza tra coloro, al momento ancora pochi in effetti, che sono venuti a conoscenza dell’imminente, pare, riforma della valutazione della ricerca a livello europeo. La speranza è l’ultimo male rimasto sul fondo dello scrigno di Pandora. Ma la speranza in un mutamento della valutazione non è un male: testimonia, al contrario, l’esistenza di una purezza d’animo degna di vedersi un giorno spalancare il regno dei cieli – anche se per il momento sembra soltanto occludere la vista su questo mondo.
- Nuovamente verso il nuovo
Nel leggere lo Scoping Report della Commissione europea Towards a Reform of the Research Assessment System[1] e il susseguente Agreement on Reforming Research Assessment[2] sottoscritto da Università, centri di ricerca, agenzie europee (inclusa ANVUR) e associazioni varie, sorprende la totale assenza di considerazione per le critiche che colpiscono i fondamenti stessi della valutazione: una mole ormai consistentissima di letteratura internazionale[3], prodotta non da improvvisati pubblicisti, ma da studiosi che operano all’interno di istituzioni universitarie o di ricerca riconosciute, vi ricoprono spesso ruoli di prestigio, sono complessivamente reputati, insieme alle loro ricerche, per altri versi ben meritevoli di considerazione. Una impermeabilità disorientante – tanto più sorprendente in chi ha denunciato e denuncia l’autoreferenzialità dell’accademia come il peggiore dei mali – guida quella che si presenta come una ‘riforma’ della valutazione (Assessment) legata a un complessivo ridisegno dello Spazio Europeo della Ricerca “per la ricerca e l’innovazione”[4], per “l’attuazione della Scienza Aperta”[5], per l’“implementazione di una nuova governance dello Spazio Europeo della Ricerca”[6], per “rendere la circolazione dei cervelli una realtà”[7], tutte queste cose insieme e altre ancora.
Invero, se lo si volesse considerare come effettivamente motivato dalla volontà di mettere a fuoco e rimediare alle distorsioni prodotte da decenni ormai di pratiche di assessment – come in sostanza lo si presenta nei ristretti circoli in cui se ne comincia a discutere –, lo Scoping Report non potrebbe non procurare un certo sconcerto. Lo stesso sconcerto, per capirci, che grosso modo si potrebbe provare di fronte a un protocollo diligentemente messo a punto da una comunità di tossicodipendenti sotto il perdurante effetto di sostanze, il quale accompagni ad un’accurata messa in guardia dagli effetti delle stesse (alterazioni della realtà, offuscamento di giudizio, azioni sconsiderate dagli effetti irreversibili) ordinate e puntuali indicazioni per evitarne un uso sregolato e il richiamo a un impiego consapevole, con tanto di indicazioni in fatto di quantità, posologia, interazioni da evitare; senza cioè che mai sia resa oggetto di riflessione, neppure per un attimo o per prova, l’opportunità del ricorso alle sostanze come tale, ma al contrario assumendo tale ricorso come parte naturale e oggi necessaria dell’esperienza comune, seppure certo da innovare (un’assunzione in sintonia con le sfide del presente, aperta al futuro…).
Portata all’estremo o avanti più di tanto la similitudine non reggerebbe, come del resto ogni similitudine, ma l’idea dell’intossicamento non nasce da una trovata estemporanea, pour épater come si dice. Disintossichiamoci[8] era l’ingiunzione che dava il titolo a un documento e poi a un movimento nato nel 2020 dall’ambizione di andare a fondo sulle straordinarie trasformazioni che hanno toccato l’Università e più in generale la missione della ricerca e della formazione superiore negli ultimi decenni, e di guardare al futuro a partire da una scelta di campo netta, libera dal timore di risultare ‘divisivi’. Per gli estensori (ben tre dei quattro partecipano a questo volume) anzitutto si trattava di non confondersi con altri interventi: non si voleva cioè mettere in discussione questo o quel determinato ‘metodo’ di valutazione, o più precisamente ‘mezzo’ – mezzo tecnico – di valutazione, sollecitandone magari altri (la ‘critica costruttiva’ sempre invocata), come se organi e istituzioni fino ad allora investiti di questo compito non si fossero accorti di quanto manchevoli, inadatti, rozzi fossero quegli strumenti e aspettassero solo, incapaci e incompetenti, che qualcuno gliene suggerisse di nuovi e più adeguati. L’adeguatezza ricercata non riguardava i mezzi, era piuttosto di ‘livello’: non si trattava di denunciare ‘criticità’ nel solco di passati documenti più o meno istituzionali, ma di riconoscere la radicalità della trasformazione avvenuta e osare porsi a quello stesso livello di radicalità. Un atto ambiziosamente o ingenuamente parresiastico: riconoscersi “intossicati”, riconoscere in quella trasformazione la potenza – distruttiva quanto si vuole – di una visione del mondo.
“Il cambiamento degli animi – si diceva nel documento – è così profondo che non ci accorgiamo nemmeno più della distruzione compiutasi intorno e attraverso di noi: il paradosso della fine – nella ‘società della conoscenza’ – di un ‘mondo dedicato alle cose della conoscenza’ (…). Una distruzione che ha assunto come pretesto retorico alcuni mali – reali e no – della vecchia Università, ma naturalmente senza porvi rimedio, perché non questo, ma altro era il suo obiettivo. La modernizzazione che ha programmaticamente strappato l’Università via da ogni ‘torre di avorio’ (…) ha significato non altro che la via, la ‘terza via’, verso il mondo degli interessi privati (…), la messa in concorrenza forzata di individui gruppi o istituzioni all’interno dell’unica realtà cui oggi si attribuisce titolo per stabilire valori, ossia il mercato, in questo caso il mercato globale dell’istruzione e della ricerca, che è un’invenzione recente (…). La logica del mercato concorrenziale si è imposta come vero e proprio comando etico, opporsi al quale ha comportato, per i pochi che vi hanno provato, doversi difendere da accuse di inefficienza, irresponsabilità, spreco di danaro pubblico, difesa di privilegi corporativi e di casta. Tutt’altro che il trionfo del laissez faire: un ‘evaluative State’ poliziesco ha operato affinché questa logica venisse interiorizzata nelle normali pratiche di studio e ricerca, operando una vera e propria de-professionalizzazione, che ha trasformato studiosi impegnati nella loro ricerca in entrepreneurial researcher conformi ai diktat della corporate University”.
- Fedeltà ai princìpi
Se si considera quanto condensato nelle poche righe riportate, frutto non di una scomposta reazione, di un’analisi improvvisata, ma di un’analisi ponderata, con alle spalle anche anni di riflessione, di ‘ricerca sulla ricerca’ come si dice oggi, risulta difficile comprendere come si possa dare credito agli sbandieramenti europei di una “New Era”, “New Assessment”, “New Governance”, “New Open Science”, “New Higher Education” ecc. ecc. Nella selva di accordi, risoluzioni, comunicazioni, raccomandazioni, dichiarazioni, conclusioni, rapporti rilasciati da istituzioni e organizzazioni europee della più diversa specie, ripresi e rilanciati a ritmo continuo da nuovi accordi risoluzioni comunicazioni raccomandazioni dichiarazioni e conclusioni – un groviglio soffocante di istanze e obiettivi diversi, quando non contrastanti (concorrenza/inclusione, controllo a 360 gradi/libertà accademica…) –, per la quale invocare il più violento disboscamento sarebbe solo un atto di pietà verso chi si sforza di mantenere raziocinio e orientamento, emerge una traiettoria affatto coerente con i propri inizi. Sempre di nuovo tutto parte da un’ostinata fedeltà al libero mercato della ricerca e della conoscenza e tutto lì ritorna. Come recita la comunicazione della Commissione su Un nuovo SER per la ricerca e l’innovazione del 2020, dinanzi alle “nuove sfide” (“profonde sfide sociali, ecologiche ed economiche, aggravate dalla crisi della pandemia”), si tratta di rilanciare e rafforzare il progetto che è alla base della nascita dello Spazio Europeo della Ricerca varato nel 2000 nel contesto della strategia di Lisbona, per “realizzare un mercato unico per la ricerca e l’innovazione che favorisca la libera circolazione dei ricercatori, delle conoscenze scientifiche e dell’innovazione e incentivi la competitività dell’industria europea”[9]. In questo senso, l’attivismo riformista dell’Unione Europea opera, si potrebbe dire, più che riforme, rivoluzioni, in senso rigorosamente astronomico.
Astro abbagliante e centro di massa di tutto questo movimento è l’idea dell’eccellenza. Della quale di fatto manca una definizione, al di là del più vago riferimento alla qualità e all’impatto (quasi un ignotum per ignotius…). La stessa eccellenza, cioè, che già nel 1996 Bill Readings qualificava per la sua vuotezza semantica, invitando a resistervi, come nient’altro che un “cash nexus”, una nozione “derefenzializzata” e tecno-burocratica, mutuata dal management nord-americano di fine secolo, che serve “precisamente a non dire nulla” di contenutisticamente definito e sensato, perché il suo ufficio è produrre e processare informazioni in vista della creazione di un “fictional market”, un “quasi-mercato” (Readings 1996, pp. 3, 36). Oggi come ieri, “l’eccellenza’ significa davvero qualcosa? (…). Attingendo a una serie di fonti, interroghiamo l’‘eccellenza’ come concetto e scopriamo che non ha un significato intrinseco nel mondo accademico. Piuttosto, essa funziona come un meccanismo di interscambio linguistico” (cfr. Moore, Neylon, Eve, O’Donnell, Pattinson 2017). Ma cosa sia l’eccellenza in effetti non ha importanza, perché quel che conta è il suo funzionare come principio di organizzazione (l’ordine della concorrenza) secondo un ‘ottimo paretiano’ che comporta l’esclusione della maggior parte a favore della frazione di volta in volta dominante. Così lo Spazio Europeo della Ricerca, quello nuovo (la “New Era”) come quello vecchio, anzi il nuovo più ancora del vecchio, si dichiara “ancorato al principio dell’eccellenza”, diretto ad “innalzare il livello di eccellenza”, a “migliorare l’accesso all’eccellenza: a favore di una maggiore eccellenza”, a “nutrire talenti per tendere all’eccellenza”, a “sviluppare l’eccellenza al fine di ampliare il potenziale di talento”, e ancora e ancora…[10]
Però, se si riesce a tenere a freno l’insofferenza e a leggere pazientemente quanto ripetuto negli infiniti documenti preparatori e/o di contorno per la riforma del Research Assessment System e dell’Agreement sottoscritto da diversi ‘soggetti interessati’, si rende effettivamente visibile uno spostamento per il quale potrebbe apparire non del tutto ingiustificato parlare di ‘riforma’. Vi è un visibile intento, cioè, che guida la declamata – e da molti salutata con mal riposta fiducia – volontà di limitare strumenti e indicatori di carattere quantitativo, facendone un uso responsabile (certo non di rinunciarvi, col rischio di sprofondare nei tempi oscuri in cui, si deve credere, orde di ricercatori vagavano armati di clava e di semplice giudizio) e di puntare piuttosto sulla ‘qualità’, cioè su indicatori in grado di catturare e restituire questa in maniera oggettiva e misurabile: un’idea certo innovativa a suo tempo, ovvero oltre mezzo secolo fa, quando il Total Quality Management s’impose sul taylor-fordismo (una cornice all’interno della quale anche le più innovative forme di management ancora si muovono, almeno secondo alcuni studiosi – e se è così questa riforma del management della ricerca ne sarebbe la conferma non certo la smentita) (cfr. Rullani 2022). Un intento visibile, preciso e unico, verso cui tutti i documenti degli ultimi anni convergono. Questo fine, che dà senso all’intero movimento, è superare i limiti che ancora oggi confinano la valutazione nel recinto della vecchia ricerca scientifica: una idea di ricerca scientifica chiusa nelle rigidità delle discipline e in forme superate di comunicazione dei risultati prodotti – pubblicazioni scientifiche in riviste, saggi, addirittura ancora monografie –, un’idea nostalgica buona per chi vive tra le rovine di torri d’avorio cadute recitando a memoria pagine di libri da lungo tempo smaterializzati.
Questa riforma, difatti, non semplicemente non mette in discussione i princìpi cardine della valutazione, l’ideologia che vi è sottesa, cosa che nessuno certo poteva ragionevolmente aspettarsi, ma per certi versi si può sostenere che li porti persino all’estremo. Questa riforma della valutazione è infatti propriamente una liberalizzazione della valutazione. Una liberalizzazione tesa ad ampliare il raggio della valutazione stessa, estenderla e renderla flessibile, per ‘valorizzare’ tutto quanto ricade, o meglio deve e dovrà ricadere nell’attività di ricerca e innovazione, intese a loro volta in senso sempre più ampio. E per valorizzare s’intende qui, come sempre nella valutazione, estrarre valore/denaro, ‘quasi-moneta’ – ma sempre più il ‘quasi’ va assottigliandosi fino a sparire.
- La (neo)liberalizzazione della valutazione
Di fatto, nella riforma la valutazione si ‘liberalizza’ almeno sotto tre riguardi: per il metodo, con cui la stessa riforma si è andata definendo; per i contenuti che la caratterizzano; e per le sue finalità complessive.
- Metodo
Il senso della ‘liberalizzazione’ s’impone infatti fin dal metodo con cui essa è avanzata. La riforma nasce coinvolgendo soggetti ‘portatori di interesse’, i cosiddetti stakeholder, anzi per rispondere alle loro richieste e pressioni. Sembra ormai affatto ovvio e normale assumere i portatori di interesse come interlocutori legittimati a parlare di scienza, ricerca, organizzazione della ricerca, modalità del suo finanziamento, come anche di formazione, istruzione e naturalmente valutazione. Sebbene il fatto che il termine stakeholder, come tutti, non sia neutrale, ma abbia una sua precisa genesi nel mondo dell’impresa, e alla logica dell’impresa rimanga aderente, dovrebbe forse in generale far sorgere non necessariamente un sospetto pregiudiziale, ma almeno qualche cautela maggiore riguardo al suo uso. Sembra invece normale considerare le decisioni o i propositi di decisione presi per questa via, attraverso cioè l’attivo coinvolgimento degli stakeholder, già un buon risultato: politiche della conoscenza migliori perché frutto di decisioni non più subite, calate dall’alto o provenienti dall’esterno, ma provenienti dall’interno della stessa ‘comunità scientifica’, come la corrente enfasi comunicativa insiste a dire (in Italia in effetti tutta la valutazione, a qualunque livello, è fatta da docenti e ricercatori, anche se con criteri originariamente imposti dall’esterno, ma poi interamente introiettati e persino amplificati[11]).
Questa via, però – consistente in consultazioni, call, forum ecc. e poi libere sottoscrizioni, adesioni a progetti pilota, mutuo apprendimento –, configura una modalità alquanto aleatoria dei processi decisionali, una nebulosa che sfugge a una presa democratica: sono processi che, nonostante i proclami sulla trasparenza, risultano anzi difficilmente individuabili proprio grazie alla trasparenza (cfr. Pinto 2014), a quest’idea di trasparenza che si ritiene in buona parte realizzata riversando masse ingestibili di documenti online. Si tratta in realtà di modalità che si pongono fuori da (saltano) ogni mediazione democratico-istituzionale, sorpassano i tradizionali organi elettivi di rappresentanza, neutralizzano partiti, sindacati, interi parlamenti, secondo un’idea di open democracy che identifica i processi più democratici con i processi decisionali bottom-up, equilibri tra interessi resi trasparenti dai relativi portatori.
Per quanto seducente possa suonare il richiamo all’inclusività e rassicurante la non ascosità dei fini perseguiti, regolarmente dichiarati nelle homepage dei ‘portatori’ sotto le voci “About us”, “Documents”, “News”, ecc., una lente d’ingrandimento appena meno ingenua rivela in questi ‘portatori’ – che pure ci si immagina di natura non differente dalla nostra (ciascuno di noi, si dice, è un ‘portatore di interessi’, che prova a far valere in proprio o anche associandosi con altri portatori di intessi affini) – un’identità inafferrabilmente multipla. Non si tratta di porsi domande filosofiche riguardanti la natura di questo ‘portare’ e ‘portatore’, e su come il portatore possa riconoscere senza tema di ingannarsi gli interessi suoi propri, ma di registrare empiricamente che anzitutto, nella sostanza, non c’è mai ‘un’ portatore. Si tratta infatti di organizzazioni, consorzi, agenzie, reti, leghe, fondazioni, associazioni che presentano in genere la tipica forma delle scatole cinesi (e forse non solo la forma). Se si apre il ‘portatore’, si stenta a comprendere come possano mirabilmente unificarsi sotto un unico soggetto così tante e spesso diverse realtà. Se si smettesse in generale di chiamarli portatori di interesse e si usasse il termine più intellettualmente onesto di lobbisti, che non è di per sé un insulto, ma un termine affatto corrispondente alla loro missione, forse si avrebbe un’idea più comunemente comprensibile del loro ufficio[12]. Se si smettesse di chiamarli ‘portatori di interesse’, forse riusciremmo anche a rispondere a una domanda ingenua ed elementare: che ci fa un ente ‘compassionevole’ come la Bill and Melinda Gates Foundation, o un membro del gruppo Taylor&Francis, gigante dell’editoria scientifica privata, tra gli ‘interessati’ coinvolti in questa riforma[13]?
In realtà i processi dal basso, bottom up, sono quanto di più top down, calato dall’alto, e non democratico nell’accezione consueta delle tradizionali democrazie rappresentative che si possa pensare, dal momento che resta innanzitutto e per lo più imperscrutabile la logica in base alla quale vengono selezionati i ‘portatori’, da chi costoro ricevano un mandato, finanziamenti o rimborsi spese, a chi dovranno rendere poi conto delle decisioni prese, decisioni politicamente rilevantissime. In sostanza, decisioni di carattere politico come quelle che attengono alle politiche della ricerca e della formazione risultano sottratte al piano del dibattito e del confronto propriamente politico di idee e visioni, per essere presentate, dopo avere seguito percorsi di pensiero (e non solo di pensiero) non sempre ricostruibili, come “decisioni basate su prove”[14], come soluzioni obiettivamente le migliori pensabili in quanto evidence based – prove e evidenze venute alla luce a valle di mesi di fecondissimi incontri tra esperti per lo più non aperti al pubblico.
- Contenuti
Per quanto riguarda i contenuti dichiarati cui questa riforma dà corpo – mettendo qui da parte il richiamo alla Open Science, che meriterebbe un discorso approfondito in altra sede –, centrali sono, per un verso, l’idea di integrare i diversi sistemi di valutazione in modo da rendere effettivo un mercato comune europeo della ricerca con la libera circolazione dei ricercatori, un vero libero mercato del lavoro scientifico; e, per altro verso, l’idea di ‘liberalizzare’ il processo di valutazione, facendo sì che ogni realtà possa liberamente decidere cosa sottoporre a valutazione in base alla missione liberamente perseguita, anche, si potrebbe dire, quali attività in linea con il proprio ‘core business’ sottoporre a valutazione.
Come prospettato dal Gruppo di lavoro sulla valutazione della ricerca della International Network of Research Management Societies (Inorms) – presente tra gli stakeholder sottoscrittori dell’Agreement e i cui documenti sono tra quelli, in verità nell’insieme pochi, presentati in nota come documenti scientifici di riferimento –, la futura valutazione “accetta che le diverse Università abbiano caratteristiche diverse – missione, età, dimensioni, ricchezza, mix di materie, aree geografiche, ecc. – e rende visibili queste differenze, in modo che le Università possano essere raggruppate e confrontate in modo equo”[15].
Occorre quindi, si dice nello Scoping Report, una diversificazione degli strumenti di valutazione, indicatori diversi per realtà diverse: bisogna “tenere conto della diversità in senso lato (ad esempio, origine razziale o etnica, orientamento sessuale, socio-economico, disabilità) nei gruppi di ricerca a tutti i livelli e nel contenuto della ricerca e dell’innovazione”. La valutazione cioè deve favorire la diversità anziché ostacolarla. Fermo restando che la valutazione “dovrebbe concentrarsi sull’eccellenza e sull’impatto” (dando per scontato cosa sia la prima e che il secondo sia indice di qualità), “si dovrebbe studiare una misurazione della qualità maggiormente basata sul talento e sensibile alla diversità”. Pertanto, prosegue lo Scoping Report, occorrerà considerare le nuove forme di produzione, condivisione, comunicazione della ricerca, come pure la molteplicità dei modi con cui si contribuisce a Ricerca&Sviluppo: dalle attività di revisione a quelle di mentoring; dall’impegno in ruoli di leadership a quello rivolto all’imprenditorialità; dai rapporti con le industrie alle interazioni con la società e la cittadinanza ecc. E occorrerà considerare l’intera gamma di prodotti della ricerca, non solo le tradizionali pubblicazioni su carta o digitali, ma “dati, software, modelli, metodi, teorie, algoritmi, protocolli, flussi di lavoro, esposizioni, strategie, contributi politici (…). La valutazione dovrebbe riconoscere i risultati che non sempre si collocano comodamente all’interno dei confini disciplinari tradizionali, per incoraggiare lo sviluppo di capacità per la multi-disciplinarità, l’inter-disciplinarità e la trans-disciplinarità, nonché i percorsi di carriera non tradizionali che includono l’esperienza acquisita in altri settori (…). Tutto ciò dovrebbe consentire alle organizzazioni di ricerca e al sistema di ricerca nel suo complesso di raggiungere la massima qualità e il massimo impatto possibili e garantire che la ricerca rimanga attraente per i migliori talenti”[16].
Insomma, andando alla sostanza, anche per la valutazione è tempo di “diversity managment”, di aprirsi alle sfide della complessità e alle sue incognite, di uscire dalla “comfort zone” accademica (intesa in senso lato). Per questo sarà necessario, oltre a un uso controllato dei vecchi strumenti bibliometrici, affidarsi a metriche alternative (“No monotonic indicators for which a good value will depend on the mission of a University”[17]). Si tratta – come si legge in un altro riferimento basilare dello Scoping Report e dell’Agreement – di metriche nuove “a livello di articolo”, una bibliometria pronta a contare le “condivisioni sui social media”, “social bookmarks, commenti, valutazioni e tweet sui social network”, “prodotti accademici non revisionati, come post di blog, data sets e software”, e quindi ad affidarsi a webometria, o cybermetria, che misura le caratteristiche e le relazioni di elementi online, come siti web e file di log. L’ascesa dei nuovi social media ha creato un ulteriore flusso di lavoro sotto l’etichetta altmetrics. Si tratta di indicatori derivati dai siti web, come Twitter, Academia. edu, Mendeley e ResearchGate, con dati che possono essere raccolti automaticamente da programmi informatici” (Wilsdon et al. 2015).
Per i libri, il cui impatto è tradizionalmente complicato da rilevare, si potrebbe anche tenere conto di quante volte un testo è menzionato nei Syllabus online. Significativo, però, è il fatto che l’impatto che conta ed è contato non è più solo o tanto quello interno all’accademia, o più in generale ai circuiti interni al mondo della ricerca, ma anche e soprattutto l’impatto che ricade all’esterno e che nella maggioranza dei casi non riguarda pubblicazioni scientifiche: “la ricerca ha un impatto sulla società quando viene esercitata un’influenza verificabile o registrata su organizzazioni o attori non accademici in un settore al di fuori di quello universitario, ad esempio attraverso l’utilizzo da parte di una o più società commerciali, enti governativi, organizzazioni della società civile, media o organizzazioni mediatiche specializzate/professionali o nel dibattito pubblico. Come nel caso degli impatti accademici, gli impatti sociali devono essere dimostrati piuttosto che ipotizzati. L’evidenza dell’impatto esterno può assumere la forma di riferimenti, citazioni o discussioni su una persona, il suo lavoro o i risultati della ricerca” (Wilsdon et al. 2015).
L’importante è che le metriche siano rigorose e sempre revisionabili, cioè flessibili e che siano, come l’intero processo di assessment, evidence based, fondate cioè su un rigoroso management dei dati, nella consapevolezza che “gli indicatori possono esprimere il loro potenziale solo se sono sostenuti da un’infrastruttura di dati aperta e interoperabile. Il modo in cui i dati sottostanti vengono raccolti ed elaborati – e la misura in cui rimangono aperti all’interrogazione – è cruciale. Senza gli identificatori, gli standard e la semantica giusti, rischiamo di sviluppare metriche che non sono solide dal punto di vista contestuale o non sono adeguatamente comprese. I sistemi utilizzati dagli istituti di istruzione superiore (HEI), dai finanziatori e dagli editori devono interagire meglio e le definizioni dei concetti relativi alla ricerca devono essere armonizzate” (Wilsdon et al. 2015).
Che cosa tutto questo significhi – che direzione cioè prenderà la valutazione riformata, che cosa in concreto comporterà il superamento e la marginalizzazione di indicatori quantitativi come IF o h-index e l’orientamento alla ‘qualità’ – non è affatto imperscrutabile, a patto però di avere chiaro cosa significhi nel management della conoscenza (e questo e non altro è la valutazione, se ne facciano una ragione i puri di cuore) la qualità: mai il riconoscimento di una proprietà rimessa al giudizio dei ricercatori, ma sempre soltanto l’attestazione di una conformità, l’osservanza di un ordine procedurale. Così la definizione fornita nei Principles dello Scoping Report: “la qualità implica che la ricerca sia condotta attraverso processi e metodologie di ricerca trasparenti e attraverso una gestione della ricerca che consenta il riutilizzo sistematico dei risultati precedenti. L’apertura della ricerca e i risultati verificabili e riproducibili, ove possibile, contribuiscono fortemente alla qualità”[18]. Una definizione che esclude per principio una qualità aderente alla cosa, riconosciuta attraverso l’uso del giudizio, rimessa cioè a una facoltà che non si esercita computando dati, ma avanzando argomentazioni, le quali possono al più formarsi a partire non da dati, ma da ciò che in vario modo si offre alla vista (per quanto poco trasparente rimanga pure questo processo), e che non restituisce dati e/o ‘oggettività’. Quel che infatti incontriamo nel giudizio, nel senso della facoltà umana comune di giudicare, per quanto rigoroso e attento possa esserne l’esercizio, è “simultaneamente una promessa di soggettività (non è altro che la mia interpretazione) e una certa aria di evidenza vittoriosa (come potete non vedere ciò che vi sto indicando?)”, capace di produrre “effetti di adesione” che s’impongono non già in forza di “prove” ma piuttosto come “un risultato la cui evidenza viene prodotta dal movimento interno dell’andamento interpretativo” (Citton 2012, pp. 36-37). Tutt’altra cosa il riconoscimento della qualità attestata da indicatori di qualità.
Quel che dunque occorre sapere, o smettere di fare finta di non vedere, è che non è la natura quantitativa degli indicatori bibliometrici, ma solo la rozzezza della stessa a farli apparire inadeguati, obsoleti rispetto alle esigenze attuali e alla luce della possibilità di essere oggi sostituiti da indicatori molto più sofisticati, grazie alla disponibilità di grandi masse di dati (big data) e di una più avanzata tecnologia di data-management. Occorre cioè avere chiara una cosa in verità ovvia, ossia il carattere intrinsecamente quantitativo-informazionale di un indicatore: puntare alla qualità significa pertanto puntare ad alta qualità e granularità di dati e alla loro integrabilità, superando i diversi problemi che sempre l’integrazione di dati granulari incontra in relazione alle specifiche attività di gestione dei dati. Qualità significa alta qualità del management dei dati. È senz’altro vero che nello Scoping Report come nell’Agreement si parla anche di giudizio qualitativo: “la valutazione dovrebbe basarsi su un giudizio qualitativo per il quale la revisione tra pari è fondamentale”; ma è vero anche che la qualità rimane – come avvertito nel glossario dell’Agreement – sempre solo quella “definita come indicato nei Princìpi” dello Scoping Report, vale a dire secondo la definizione procedurale di qualità sopra richiamata. E non solo. Là dove nello Scoping Report come nell’Agreement si legge a chiare lettere “Giudizio qualitativo” si prosegue così: “supportato da indicatori quantitativi utilizzati in modo responsabile, ove opportuno”.
E quando ciò non sarebbe opportuno? Su questo il precisissimo Scoping Report nulla dice; e pure l’Agreement, mai altrimenti avaro di delucidazioni, tace. Sta di fatto che in questi documenti la qualità è sempre accompagnata dall’impatto e che il giudizio non figura mai da solo, ma sempre sostenuto dalla stampella degli indicatori; e ancora, cosa non trascurabile, che l’idea di giudizio supportato da indicatori è stata alla base del cosiddetto “oriented peer review” di tutti i passati esercizi di Valutazione della Qualità della Ricerca. E certamente niente assicura che, opportunamente supportato da indicatori, il giudizio non si ritrovi piuttosto catturato e sottomesso ad essi (cfr. La Rocca 2018). La trasformazione da theory-driven judgement in data-driven judgement non è un’ipotesi inquietante, ma una trasformazione che può, a quanto pare, essere anche salutata con ottimismo. Ma che si condividano per intero le “visioni ottimistiche a favore della ‘end of theory’” oppure no, resta il fatto che la necessità di accountability per giustificare finanziamenti “richiede sempre più spesso prove empiriche rigorose a sostegno di una politica informata” (Daraio, Lenzerini, Leporelli, Moed, Naggar, Bonaccorsi, Bartolucci 2015, p. 965).
Per politica informata evidence-based, ora, non s’intende una politica che si tiene informata su quanto accade nel mondo, ma una politica in-formata, dove le stesse informazioni, i dati “del sistema mediatico determinano le azioni e le strategie politiche”. Secondo questa prospettiva, le ramificazioni della “società dell’informazione multimediale” hanno il merito di democratizzare la politica, trasformando in senso innovativo la stessa democrazia: innovazione della democrazia e democratizzazione dell’innovazione procedono a un passo. La necessità di superare le vecchie forme di valutazione non risponde qui dunque neanche lontanamente all’esigenza di una più forte adesione alle necessità della prassi scientifica, ma piuttosto all’esigenza di coerenza con “il modello della ‘Quadrupla Elica’, nel quale il governo, il mondo accademico, l’industria e la società civile sono visti come attori chiave che promuovono un approccio democratico all’innovazione, per il cui tramite lo sviluppo della strategia e il processo decisionale sono esposti al feedback delle principali parti interessate, dando luogo a politiche e pratiche socialmente affidabili [accountable]” (Carayannis, Campbell 2012)[19].
È in questo “più ampio ecosistema di valutazione” che si inseriscono le metriche alternative. “Tradizionalmente, la valutazione della ricerca scientifica si è basata sulle opinioni di coloro che, per esperienza e formazione, erano nella posizione migliore per giudicare i meriti del lavoro effettuato: cioè altri ricercatori, attraverso i processi di peer review. Il concetto di pari ha tradizionalmente significato questo o quel tipo di esperto: biologi che giudicano biologi ed economisti che giudicano economisti. I non esperti erano costretti a fidarsi del giudizio degli esperti, il che sollevava la questione dell’azzardo morale, il pericolo che gli esperti servissero i propri interessi piuttosto che quelli della comunità più ampia. Parte della promessa delle metriche è che sembrano evitare questo pericolo e sono quindi intrinsecamente più democratiche: chiunque può giudicare che un numero è maggiore di un altro”. Nel nuovo assetto, “la stessa peer review sta (…) diventando più democratica, in quanto la società ridefinisce chi conta come peer. Ciò costituisce parte dell’impulso del movimento per la scienza aperta. In un primo momento si è trattato di ampliare la gamma di esperti accademici coinvolti nella valutazione, in nome dell’interdisciplinarità. Oggi la peer review spesso include una gamma ancora più ampia di partecipanti, tra cui imprenditori, ONG e cittadini. Questi cambiamenti si riflettono nel Manifesto Altmetrics del 2010: Con l’altmetrics, possiamo affidare la peer-review al crowd-sourcing. Invece di aspettare mesi per due pareri, l’impatto di un articolo potrebbe essere valutato in una settimana da migliaia di conversazioni e bookmark”[20].
Così la necessità di superare vecchie forme di valutazione e la realizzazione di una valutazione aperta con dati aperti, trasparenti e riutilizzabili e in armonia con i principi della ‘scienza aperta’ – una valutazione cioè flessibile, multidimensionale, non calata dall’alto, ma sostenuta attraverso processi bottom up (là dove i dati sono oggi non solo sempre più accessibili, ma sempre più spontaneamente prodotti e rilasciati dagli attori del sistema sociale) e rispettosa delle differenze – rivendica una radicale ispirazione democratica. Difatti – si dice, fin da quando la valutazione ha dovuto presentarsi e cercare consensi – la stessa “misurazione è democratica (…), ha un carattere di emancipazione, in quanto sottopone alla discussione e potenzialmente alla deliberazione pubblica temi di interesse comune, aumentando l’informazione e la comparabilità delle opzioni” (cfr. Bonaccorsi 2012): ed è ciò che questa valutazione diversa tanto più saprà offrire quanto più si fa automatica, anzi interamente automatizzata.
Lo dimostra per esempio Sapientia, the ontology of multidimensional research assessment, un sistema in grado “di modellare tutte le attività rilevanti per la valutazione della ricerca e per accertarne l’impatto”, dove – lo si dichiara – “per impatto, in senso lato, intendiamo qualsiasi effetto, cambiamento o beneficio per l’economia, la società, la cultura, le politiche o i servizi pubblici, la salute, l’ambiente o la qualità della vita, al di là del mondo accademico” (cfr. Daraio, Lenzerini, Leporelli, Moed, Naggar, Bonaccorsi, Bartolucci 2015): un progetto finanziato, non certo per semplice curiosity, dall’Università di Roma La Sapienza nel 2013 – ossia dieci anni fa, dieci… E ancora oggi c’è chi festeggia che la nuova neo-valutazione – cui quel progetto corrisponde a perfezione – abbia finalmente di mira, avendo corretto la mira, la qualità scientifica! Un contributo successivo, dove sempre è centrale il nuovo sistema multidimensionale di Research Assessment Sapientia, mette bene in luce “il potenziale di questo approccio per la realizzazione di un nuovo modello interattivo di innovazione della Quadruplice Elica e per l’armonizzazione dei dati contabili economici e finanziari delle Università europee” e “per gli impatti attesi in termini di elaborazione di solide politiche evidence-based” (cfr. Bonaccorsi, Catalano, Pasquale, Daraio, Moed 2016).
“Oltre l’Accademia” è l’imperativo che quanto più forte risuona nello spazio europeo della ricerca tanta più potenza trasmette alle eliche che lo fanno decollare: interi Paesi, l’intero continente, forse anche l’intero pianeta e sistema solare volano verso sviluppo e innovazione sempre più grandiosi. Le eliche girano, l’economia gira, e girando le eliche si moltiplicano alla vista: da tre che inizialmente erano, sono diventate quattro, e c’è chi da tempo ne conta già cinque (cfr. Carayannis, Campbell 2010).
- Finalità
Arriviamo così all’ultimo punto, col quale siamo al cuore della riforma liberalizzatrice della valutazione. Se, come dovremmo avere imparato, la valutazione della ricerca non mira a fotografare la ricerca, ma a governarla – tutte le pratiche di valutazione sono orientate a indirizzare le realtà che valutano, impiantandosi in esse ne mutano l’assetto, le prassi, i valori di riferimento, con effetti di trasformazione tali da renderle irriconoscibili –, anche questa neo-valutazione riformata e liberalizzata ha (e ben dovrebbe risultare chiaro da quanto appena riportato sugli intenti di innovazione della democrazia delle altermetrics) un suo determinato effetto performativo, in linea con le direttrici che caratterizzano da sempre le politiche europee della ricerca e dell’istruzione: sottrarre la ricerca alla ricerca, la formazione alla formazione, la conoscenza alla conoscenza. Anche se è ormai davvero un esercizio per risolutori di giochi di enigmistica riuscire a trovare ancora qualcosa da sottrarre alla ricerca, alla formazione, alla conoscenza, espropriate come sono state di ogni loro proprio senso. Anche aguzzando la vista si stenta a trovare ancora qualcosa che appartenga loro. Si parla oggi di ‘ricerca sulla ricerca’ e viene da domandarsi se non sarebbe più appropriato parlare di ‘ricerca della ricerca perduta’, visto che da tempo si incontra soltanto una sua controfigura, mandata in scena in threesome con sviluppo e innovazione.
Che fin dall’istituzione di uno Spazio Europeo della Ricerca e dell’Istruzione, come pure in tutte le fasi che ne hanno preparato la costruzione, i ‘decisori politici’ europei, guidati da una nuova idea di autonomia, abbiano avuto come preciso bersaglio l’idea di autonomia della vecchia Università humboltiana – si trattasse o meno di colpire un fantasma, uno spettro sollevatosi da un passato perduto, o anche soltanto una proiezione da loro stessi disseppellita di un’Università forse neppure mai esistita, poco importa – è un fatto pacifico. “Anti-Humboldt” definisce J. P. Olsen la transizione verso il nuovo ordine europeo per ciò che riguarda la formazione, a partire da quella che può dirsi una vera e propria “riconcettualizzazione” dell’Università. “Di tanto in tanto si assiste alla transizione verso un nuovo ordine, quando le istituzioni vengono riconcettualizzate, guadagnano e perdono legittimità e diventano più chiuse o aperte alle influenze esterne” (Olsen 2008).
Assai più che semplicemente aperta alle influenze esterne, la nuova missione dell’Università si configura come una vera e propria sottomissione alle istanze provenienti dall’esterno: una sintonia (Tuning) con i bisogni e gli interessi della società (stabiliti da chi? e come?); una risposta a comando della Responsive university alla Stakeholder society; una resa alla pubblica ostensione degli interessi privati. La riconcettualizzazione dell’Università europea all’inizio del nuovo millennio muove dall’allontanamento da un’idea propriamente europea, che concepisce il ruolo dello “Stato come custode dell’autonomia istituzionale e individuale e non come una minaccia”, per fare spazio a una nuova idea di autonomia legata invece al “decentramento” (Olsen 2008). Si tratta di un’idea che, se da un lato regala maggiore discrezionalità, dall’altro rappresenta un cavallo di Troia per l’ingresso di sistemi di gestione delle prestazioni e di rendicontazione propri delle imprese commerciali private: non una liberazione dall’oppressione burocratica e un dimagrimento dello Stato, ma l’aggiungersi del New Public Management alle pesantezze della vecchia burocrazia e l’ascesa di un Evaluative State (Neave 2012) – un vero e proprio Leviatano digitale (cfr. Panarari 2021) – che governa attraverso il controllo e attraverso il controllo comanda di “adattarsi alle ‘esigenze della società’, intese come forze di mercato, preferenze dei clienti e delle parti interessate”. La riconcettualizzazione dell’Università, ma forse alla luce di quanto detto sarebbe più aderente parlare di ‘riformattazione’ operata dall’UE, è ben sintetizzata da Olsen, quando riassume la posizione della Commissione come segue: “Le Università europee non producono risultati. Sono superate nella competizione globale, in parte a causa del ‘modello Humboldt’ e dello ivory-tower thinking. Esse operano in un ambiente in rapida evoluzione, ma sono isolate dalla società, eccessivamente regolamentate e sotto finanziate. Le Università sono istituzioni intrinsecamente conservatrici, che difendono i loro privilegi e non rispondono alle esigenze economiche e sociali. Ora devono essere misurate in termini di produttività e prestazioni competitive. Devono generare reddito e contribuire maggiormente alla competitività e allo sviluppo economico dell’Europa. L’istruzione superiore e la ricerca sono beni di consumo privati più che un bene pubblico. I membri della facoltà sono fornitori di servizi e gli studenti sono consumatori” (Olsen 2008).
- Societal Impact
Sembra, di nuovo, più difficile di una sfida da Settimana enigmistica (“Trovate le differenze!”) distinguere tra i princìpi che hanno portato nel 2000 alla nascita dello Spazio Europeo della Ricerca e i propositi europei più recenti. La ribadita dichiarazione che “l’alta formazione deve fare la sua parte nell’affrontare le sfide sociali e de- mocratiche dell’Europa (…) e che le istituzioni dell’alta formazione non siano torri d’avorio, ma comunità di apprendimento civicamente connesse alle loro comunità”, letta dall’interno delle rovine di quelle torri (forse neppure mai esistite), mostra come la spinta innovatrice riguardi più le tecniche di sfondamento che non gli obiettivi: delenda est. Ogni ‘apertura’ sembra limitata e l’impatto della ricerca e dei ricercatori sulla società appare sempre insufficiente. Sulle pagine del catalogo istituzionale della ricerca Iris – il database dove ogni ricercatore universitario è tenuto a indicare tutti prodotti della propria ricerca e validarli, pena perdere scatto stipendiale, finanziamento di progetti, avanzamenti di carriera e simili – compare, accanto agli indicatori citazionali, l’indicatore di impatto sociale Plum di Elsevier, per quanto ancora non attivo. Viene da chiedersi, ma fa certo parte dell’oziosa comodità del rimanere chiusa nella mia disciplina, che impatto sulla società e che numero mai avrebbe registrato – in un’ucronia in cui Plum&Co. fossero già esistiti il 6 agosto del 1945 – il nome di Robert Oppenheimer.
Riferimenti bibliografici
Bonaccorsi, A.
2012, La valutazione della ricerca come esperimento sociale, Scuola democratica, 6.
http://www.scuolademocratica.it/2012/10/n%C2%B06-nuova-serie-%E2%80%93-ottobre-2012.
Bonaccorsi, A., Catalano, G., Pasquale, R., Daraio, C., Moed H. F.
2016, Towards an open quadruple helix indicators factory, OECD Blue Sky Forum on Science and Innovation Indicators.
Carayannis, E. G., Campbell, D. F. J.
2010, Triple Helix, Quadruple Helix and Quintuple Helix and How Do Knowledge, Innovation and the Environment Relate To Each Other? A Proposed Framework for a Trans-disciplinary Analy- sis of Sustainable Development and Social Ecology, International Journal of Social Ecology and Sustainable Development, 1, 1, pp. 41-69.
2012, Mode 3 Knowledge Production 1, Quadruple Helix Innovation Systems, Springer Briefs in Business 7, DOI 10.1007/978-1-4614-2062-0_1.
Citton, Y.
2012, Future umanità. Quale avvenire per gli studi umanistici?, Duepunti Edizioni, Palermo.
Daraio, C., Lenzerini, M., Leporelli, C., Moed, H. F., Naggar, P., Bonaccorsi, A., Bartolucci A.
2015, Sapientia: the Ontology of Multi-dimensional Research Assessment, Proceedings of ISSI 2015 Istanbul, 15th International Society of Scientometrics and Informetrics Conference, pp. 965- 977.
La Rocca, C.
2018, Presupposti epistemologici della valutazione/ misurazione, in P. De Paolis (a cura di), La valutazione della ricerca umanistica: modelli e prospettive, La Biblioteca di ClassicoContemporaneo, Palermo.
Moore, S. A., Neylon, C., Eve, M., O’Donnell, D. P., Pattinson, D.
2017, ‘Excellence R Us’: university research and the fetishisation of excellence, Palgrave Communications, 3, [16105].
https://doi.org/10.1057/palcomms.2016.105.
Olsen, J. P.
2008, Institutional autonomy and democratic government, Arena Working Paper, Center for European Studies, University of Oslo.
Panarari, M.
2021, Il Leviatano digitale e il neo-totalitarismo soft, Rivista di Digital Politics, 2, pp. 397-411, doi: 10.53227/101950.
Pinto, V.
2014, Trasparenza. Una tirannia della luce, in F. Zappino et al. (a cura di), Genealogie del presente. Lessico politico per tempi interessanti, Mimesis, Udine, pp. 231-248.
2019, Valutare e punire. Per una critica della cultura della valutazione, Cronopio, Napoli.
Readings, B.
1996, The university in ruins, Harvard University Press, Cambridge (MA).
Rullani, E.
2022, The new economy of complexity: the sense and challenges of the incoming digital transition, Sinergie. Italian journal of management, 40, pp. 17-34.
Saltelli, A., Dankel, D. J., Di Fiore, M., Holland, N., Pigeon, M.
2022, Science, the endless frontier of regulatory capture, Futures, 135, 102860.
https://doi.org/10.1016/j.futures.2021.102860
_______________
Note
[1] Towards a reform of the research assessment system: scoping report (2021), European Commission, Directorate-General for Research and Innovation, Publications Office. https:// data.europa.eu/doi/10.2777/707440.
[2] Agreement on Reforming Research Assessment (2022). https://coara.eu/app/uploads/2022/09/2022_07_19_rra_agreement_final.pdf
[3] Per questi riferimenti mi permetto di rimandare alla seconda edizione ampliata di Pinto 2019.
[4] Un nuovo SER per la ricerca e l’innovazione (2020), Comunicazione della Commissione al Parlamento Europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle Regioni. https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX:52020DC0628.
[5] Conclusioni sulla valutazione della ricerca e sull’attuazione della scienza aperta (2022), Consiglio dell’Unione Europea https://data.consilium.europa.eu/doc/document/ST-9515-2022-INIT/it/pdf. Cfr. anche: Progress on Open Science: Towards a Shared Research Knowledge System – Final Report of the Open Science Policy Platform (2020), European Commission, Directorate-General for Research and Innovation. https://op.europa.eu/en/publication-detail/-/publication/d36f8071-99bd-11ea-aac4-01aa75ed71a1.
[6] State of play of the implementation of the new governan- ce of the European Research Area – Information note from the Commission (2022). https://data.consilium.europa.eu/doc/ document/ST-9578-2022-INIT/en/pdf.
[7] Deepening the European Research Area: Providing rese- archers with attractive and sustainable careers and working con- ditions and making brain circulation a reality (2021) – Council conclusions. https://www.consilium.europa.eu/media/49980/ st09138-en21.pdf.
[8] Disintossichiamoci – Sapere per il futuro (2020). https:// www.roars.it/piu-1-000-firme-disintossichiamoci-un-appello-per-ripensare-le-politiche-della-conoscenza. Nel giro di alcune settimane la sottoscrizione toccò le 1800 firme, con nomi significativi e apporti internazionali, rappresentando la più ampia contestazione ai princìpi guida delle politiche dell’Università e della ricerca italiane e europee di questi anni, poi frenata dall’improvviso sopravvento della pandemia.
[9] Un nuovo SER per la ricerca e l’innovazione, cit.
[10] Ibidem.
[11] Nell’ultimo esercizio VQR erano coinvolti 11.299 revisori esterni, oltre ai componenti GEV, CEV, CEVS e tutti coloro che in un modo e nell’altro avevano prestato collaborazione presso l’ANVUR e ricevuto da essa formazione, titoli, ruoli, responsabilità, consulenze, incarichi. Ma anche quando ad attuarla siano gli stessi ricercatori, resta che la valutazione della ricerca non è mai ‘interna’: non è la ricerca che valuta sé stessa, ma essa risulta valutata a scopi di direzione e controllo in vista di obiettivi extra-scientifici. Alla fine, su quali basi normative si viene valutati? Quelle costitutive di una disciplina scientifica – la quale sempre, in virtù di questo riferimento, premia o sanziona determinate azioni e risultati –, oppure a partire da norme e valori di volta in volta dominanti nella società, certo non privi di influenza sulla scienza, ma in linea di principio distinti da quelli che vigono al suo interno?
[12] Sulla penetrazione aziendale nei meccanismi normativi europei tramite l’uso strategico della legittimazione scientifica cfr. Saltelli, Dankel, Di Fiore, Holland, Pigeon 2022
[13] Cfr. gli stakeholder elencati nello Scoping Report. Ho fatto soltanto un paio di controlli. La Bill and Melinda Gates Foundation è parte di Coalition-S. https://www.coalition-s.org/organisations/. F1000research è parte del gruppo T&F, che è un’azienda Informa. https://f1000research.com/about/legal.
[14] Cfr. Agreement on Reforming Research Assessment, cit.
[15] INORMS Research Evaluation Group (2022), Fair and responsible university assessment: Application to the global university rankings and beyond. https://inorms.net/wp-content/uploads/2022/07/principles-for-fair-and-responsible-university-assessment-v5.pdf.
[16] Towards a reform of the research assessment system, cit., corsivo mio.
[17] INORMS Research Evaluation Group (2019), What makes a fair and responsible university ranking? Rating the rankings criteria.
https://inorms.net/wp-content/uploads/2019/09/what-makes-a-good-ranking-list-of-characteristics-version-2.pdf
[18] Towards a reform of the research assessment system, cit.
[19] Cfr. la recezione di questo modello nelle politiche europee p.e. in Horizon Europe – Work Programme 2021-2022. 11. Widening participation and strengthening the European Research Area, European Commission Decision C(2022)2975 of 10 May 2022. https://ec.europa.eu/info/funding-tenders/opportunities/docs/2021-2027/horizon/wp-call/2021-2022/wp-11-widening-participation-and-strengthening-the-european-research-area_horizon-2021-2022_en.pdf
[20] Next-generation metrics: Responsible metrics and eva- luation for open science (2017), Report of the European Com- mission Expert Group on Altmetrics, European Commission, Directorate-General for Research and Innovation.
https://op.europa.eu/en/publication-detail/-/publication/b858d952-0a19-11e7-8a35-01aa75ed71a1.
Rimpiangerete la bibliometria