Aspetti critici dell’uso di rankings di riviste nelle scienze umane.

L’esercizio VQR 2004-2010 è apparso, fin dal principio, opera alquanto complessa e non scevra di rischi. Rischi dovuti essenzialmente alla novità di un esercizio tanto vasto per il sistema italiano, a tempi troppo compressi nella sua realizzazione, alla mancanza di un’adeguata discussione intorno ai criteri sui quali si fonderà la valutazione stessa e non da ultimo alla configurazione di ANVUR come una sorta di executive agency.

Un punto particolarmente critico è costituito dall’adozione di criteri bibliometrici per la valutazione dei prodotti della ricerca. Il ricorso alla bibliometria serve a rendere più spedito, meno costoso, e secondo alcuni anche più oggettivo il processo di valutazione.[2] Va detto, a questo proposito,  che specie in alcune aree disciplinari la conoscenza e la pratica consapevole di strumenti bibliometrici fra gli accademici italiani è vicina se non pari allo zero.

Fra gli strumenti bibliometrici di valutazione un discorso a parte dev’essere riservato all’utilizzazione di rankings o liste di riviste collocate in una sorta di graduatoria. L’assegnazione di una “classe di merito” a una determinata rivista, per esempio sulla base del suo fattore di impatto, ossia della sua presenza riconosciuta (attraverso l’analisi citazionale) in un dato settore disciplinare[3] genera per sua natura un meccanismo semiautomatico di valutazione, tale per cui la valutazione del contenitore può essere trasferita sul contenuto. Tale strumento avrebbe anche il vantaggio di aumentare virtuosamente la competizione fra i ricercatori, desiderosi di apparire sulle riviste “migliori” o “eccellenti”. In realtà, si tratta di uno strumento tutt’altro che privo di rischi e che sarebbe opportuno non utilizzare. La stessa ANVUR, dopo gli interventi di A. Baccini e G. De Nicolao, pubblicati sul sito ROARS[4] ha dovuto rivedere, annunciando un rinvio di un mese, i criteri che aveva elaborato per le aree delle “scienze dure”, che prevedevano anche il ricorso a classifiche di riviste. Il ricorso all’impact factor delle sedi di pubblicazione sarà – pare – mantenuto, ma in forma limitata per fornire essenzialmente un’indicazione orientativa ai giovani studiosi su quale sia il miglior luogo dove pubblicare.

Per le aree delle scienze umane il dibattito è rimasto sotterraneo, benché la questione sia tutt’altro che irrilevante. Infatti, se è pur vero che viene annunciato un ricorso a parametri bibliometrici solo in via “sperimentale” e per quote percentuali ridotte dei prodotti della ricerca,[5] va osservato che l’ANVUR non intende far ricorso per queste discipline alla mera peer review, ma auspica un “mix valutativo” che faccia ricorso alla “informed peer review”. Con questo termine si intende una revisione da parte dei pari integrata con informazioni di natura bibliometrica: si tratta appunto dei famosi rankings di riviste, che saranno inviati ai revisori insieme ai prodotti da valutare.[6]

E’ evidente che i revisori anonimi nominati dai rispettivi GEV (gruppi di esperti della valutazione) potranno decidere di non tenere in alcun conto la collocazione di una rivista nelle fasce di merito rifiutando di considerare le informazioni aggiuntive che verranno loro trasmesse. Ma è altrettanto evidente che, anche vista la mole dei prodotti oggetto di valutazione, sarà assai facile che si produca un trasferimento quasi automatico del ranking dal contenitore al contenuto. Come è ricordato nel documento IMU sui rankings di riviste, “another negative aspect of such rankings is that they have been misused in an attempt to evaluate individual departments and researchers. It is of great importance to acknowledge that, while the quality of a journal depends on the quality of the papers that appear in it, the quality of any individual paper is not determined by the quality of the journal in which it appears.”[7] Si tratta dunque di una scelta per certi versi pericolosa e che verosimilmente produrrà effetti distorsivi. Questo sia per motivi intrinseci, legati alla natura dello strumento, che per il modo in cui si è scelto di operare nel contesto della VQR.

Cominciando dal secondo punto non si può non rilevare come la scelta di produrre liste gerarchicamente ordinate di riviste sia operazione estremamente delicata, che andrebbe compiuta, se proprio è necessario, sulla base di criteri uniformi e trasparenti, discussi ampiamente con gli interessati e sulla base di procedure chiaramente predefinite.[8] Nulla di ciò finora si è visto. Lo stesso coinvolgimento delle Società disciplinari è avvenuto in modo disordinato, senza che fosse del tutto chiaro come esse dovevano operare e senza che vi fosse il tempo necessario per un’adeguata discussione. Operazioni del genere, che in assenza di dati sul fattore di impatto delle riviste di norma richiedono all’estero molti mesi, se non anni, di duro lavoro, sono dunque compiute ai fini della VQR in un modo che, a voler essere generosi, può definirsi come frettoloso; inoltre le classifiche sono a quanto pare rielaborate e adattate dagli stessi GEV sulla base di indicazioni provenienti dal Direttivo dell’ANVUR, ciò che costituisce un’anomalia assoluta nel panorama internazionale. Non sono mai i valutatori a predisporre essi stessi rankings di questa natura: i valutatori debbono valutare secondo strumenti che non dipendono dalle loro scelte, e che sono riconosciuti come opportuni ed efficaci dai soggetti valutati. Anche in questo caso, come in molti altri, l’Agenzia travalica i compiti che dovrebbero essere suoi propri, per estendere il proprio campo d’azione al di là di quanto suggeriscono le migliori pratiche internazionali.

Venendo al secondo punto: le classifiche di riviste sono uno strumento intrinsecamente rischioso e per molti versi sconsigliabile. Basterebbe a dimostrarlo la recente esperienza della lista australiana (il cosiddetto ranking ERA) che si è dovuto infine ritirare dopo aver constatato gli effetti distorsivi che essa aveva prodotto e i danni anche gravi arrecati ad alcuni settori disciplinari.[9] Il ministro australiano competente ha dovuto dichiarare che “There is clear and consistent evidence that the rankings were being deployed inappropriately … in ways that could produce harmful outcomes”. La lista ERA, infatti, non è più oggi costruita come ranking, ma come un elenco che discrimina fra riviste scientifiche (le cui pubblicazioni sono valutabili) e non scientifiche (le cui pubblicazioni non sono valutabili). Anche la lista ERIH, promossa dalla European Science Foundation e riservata alle scienze umane, si è rivelata un sostanziale fallimento: i rankings assegnati alle sedi di pubblicazione hanno suscitato tali controversie da determinarne il sostanziale abbandono.[10] L’Accademia Reale Olandese delle Scienze, in un documento dedicato alla valutazione delle humanities, considera la possibilità di compilare classifiche di riviste in assenza di altri dati bibliometrici,[11] ma ribadisce più volte che occorre estrema cautela nella loro redazione per evitare che esse si rivelino dannose. Va rilevato che gli estensori del documento si astengono dal prendere posizione sull’opportunità dell’uso di tali strumenti per l’allocazione dei fondi (The question of whether one wishes to utilise classifications of this type – whether or not together with scoring – when allocating funding, as is the case in Norway and Flanders, is a more far-reaching and political question, and one that the Committee does not wish to answer),[12] osservando comunque che la classificazione in sedi di classe A, B, C “suggests an exactitude that this specific quality indicator cannot in fact provide”.[13] In ogni caso, la redazione di tali rankings dovrebbe, secondo il parere degli estensori del documento, essere affidato alle comunità scientifiche e supervisionato dall’Accademia delle Scienze, quale soggetto terzo e imparziale. Da ultimo, ricordo che nel prossimo esercizio di valutazione britannico (REF), nessun panel di valutatori farà ricorso a classifiche di riviste.[14]

Nel caso italiano, per i modi e i tempi in cui le classifiche sono costruite esse non paiono affatto restituire una “fotografia” del prestigio accademico delle sedi di pubblicazione già noto alle comunità di ricercatori; esse anzi rischiano non di certificare l’esistente, ma di influenzare in modo determinante il comportamento delle comunità stesse. L’identificazione da parte di ANVUR che – è bene ricordarlo – è organo di emanazione ministeriale e non un’autorità terza e imparziale,[15] di distribuzioni percentuali dei prodotti nelle diverse classi è un modo per trasformare la realtà, non per analizzarla; vi è dunque il rischio concreto che la valutazione si svolga secondo criteri che non solo non erano previamente noti, ma neppure immaginabili da parte dei ricercatori i cui prodotti saranno esaminati. Inoltre, specie per quelle discipline per le quali non esistono riviste ad uso dei professionisti, si determinerà una moltiplicazione dei contributi inviati alle riviste individuate – secondo criteri più o meno ragionevoli – come eccellenti e un impoverimento delle sedi a cui è assegnato, a torto o a ragione, un basso ranking. Un processo con ogni evidenza irreversibile e self-sustaining.[16] Con l’effetto perverso di impoverire nel suo complesso la produzione editoriale per alcune discipline (un certo numero di riviste andrà verosimilmente incontro a morte certa) e di rafforzare il potere accademico di chi controlla determinate sedi editoriali di per sé riconosciute come portatrici di un “marchio di qualità”.

Inoltre, la stessa struttura delle discipline umanistiche e lo scarso volume dei fondi per esse allocati contribuiscono a rendere del tutto inutile un esercizio di questo tipo. Anche per questo motivo, negli Stati Uniti dove pure è molto diffuso l’uso di classifiche di riviste per le hard sciences, non si fa ricorso a rankings nei settori disciplinari delle humanities: come è stato scritto di recente, Humanities scholars in the United States should be proud that they have to date avoided rank and brand fever.[17]

Nell’attuale situazione, nell’attesa che il dibattito si approfondisca e si rendano disponibili anche alle scienze umane altri strumenti bibliometrici atti alla valutazione delle strutture (inclusi eventualmente quelli citazionali) parrebbe dunque opportuno rinunciare ad un’operazione rischiosa come quella della costruzione di classifiche di sedi editoriali. La migliore soluzione pare dunque quella di distinguere unicamente sedi scientifiche (valutabili) e non scientifiche (non valutabili), sulla base di una serie di parametri verificabili come quelli ai quali fa riferimento la lista di LATINDEX. Per tutto il resto, c’è la peer review. Purché, è giusto ricordarlo, anche per questo aspetto si seguano le migliori pratiche, assicurando la pubblicità ex post dei nomi dei revisori.

Genoni e Haddow, nel prevedere il fallimento del ranking ERA, hanno scritto che there are good arguments that can be made to suggest that ranking of journals, particularly in the humanities, is a futile pursuit. Not only is it likely to produce questionable results in terms of the accuracy of the hierarchy it constructs, but also [..] it may lead to undesirable outcomes by inducing authors to seek publication in journals that are sub-optimal in terms of communicating with a specific audience, while threatening the existence of the bulk of B and C journals that depend upon a regular flow of quality submissions. These ramifications will be felt most keenly in disciplines that depend on local journals, and in middle-ranking research nations where there is an incentive to ‘export’ research publishing to leading international journals.[18] Sono parole che i responsabili della VQR dovrebbero meditare.

In conclusione, mi permetto di suggerire ai GEV delle aree umanistiche di rifiutare, al pari dei loro colleghi inglesi, di ricevere classifiche di riviste, per dedicarsi a una uninformed peer review.

Due diverse versioni di questo testo sono apparse sul sito dell’Istituto di Ricerche sulla Pubblica Amministrazione e su ASTRID, Fondazione per l’analisi, gli studi e le ricerche sulla riforma delle istituzioni democratiche e sull’innovazione nelle amministrazioni pubbliche.

 



[2] Quest’ultimo punto è ormai largamente contestato. Si veda ad esempio il rapporto curato da Robert Adler, John Ewing, Peter Taylor per IMU, ICIAM e IMS, Citation Statistics: The idea that research assessment must be done using “simple and objective” methods is increasingly prevalent today. The “simple and objective” methods are broadly interpreted as bibliometrics, that is, citation data and the statistics derived from them. There is a belief that citation statistics are inherently more accurate because they substitute simple numbers for complex judgments, and hence overcome the possible subjectivity of peer review. But this belief is unfounded.

[3] Il principale, anche se non l’unico, strumento utilizzato a questi fini è l’impact factor (IF o JIF), elaborato dalla Thomson Reuters.

[5] Il che è imposto dalla mancanza, al momento, di indicizzazione dei prodotti delle scienze umane e alle difficoltà dello stesso data mining nelle scienze umane. Sono comunque in corso sperimentazioni per la costruzione di database citazionali per le scienze umane, un esperimento che – purché confinato alla valutazione di strutture e in presenza di un’adeguata normalizzazione dei dati rispetto al settore disciplinare di riferimento – consentirebbe di costruire una metrica intrinsecamente meno distorta di quella derivante dai rankings di riviste. Restano ovviamente ferme le critiche, ormai note, agli indici citazionali e ai comportamenti opportunistici che essi ingenerano: ogni indicatore bibliometrico dev’essere sempre utilizzato cum grano salis.

[6] Guido Abbattista, che ringrazio, mi fa rilevare che non si tratterebbe propriamente di bibliometria, ma di analisi qualitativa su criteri prestabiliti. Senza esaminare a fondo la questione che necessiterebbe di molto spazio, devo dire che non sono del tutto d’accordo. Non solo perché si tratta di fatto di una “metrica”, ma anche perché In fondo la stessa bibliometria fondata su dati citazionali non è altro che una variante in forma quantitativa della peer review, come già vide D. Gillies (How should Research be Organized?, 2008, p. 57 ss.)

[8] In taluni paesi si fa ricorso a consultazioni pubbliche. E’ il caso della lista elaborata dal CNRS per le riviste economiche.

[9] Cfr. in proposito G. De Nicolao, I numeri tossici che minacciano la scienza.

[10] Cfr. J. Howard, New Ratings of Humanities Journals Do More Than Rank. They Rankle, The Chronicle of Higher Education, 10.10.2008.

[11] Royal Netherlands Academy of Arts and Sciences, Quality Indicators for Research in the Humanities, 2011 p. 43: The Committee does consider, however, that precisely where digitised bibliometrics (citation scores, h-index, etc.) are insufficiently usable in many areas of the humanities, a system for classifying publication media (both journals and publishers and books series) can provide useful alternative indicators if applied judiciously and with an awareness of the limitations outlined above.

[12] Ibid.

[13] Ibid.

[14] Cfr. in Proposito A. Baccini, VQR e la bibliometria fai-da-te dell’ANVUR 1.

[15] Cfr. C. Pinelli, Autonomia universitaria, libertà della scienza, e valutazione dell’attività scientifica, in Rivista dell’Associazione Italiana dei Costituzionalisti, 3/2011, p. 5.

[16] Cfr. P. Genoni, G. Haddow, ERA and the Ranking of Australian Humanities Journals, AHR 46 (2009), a proposito del ranking ERIH:  Despite the ESF’s attempt to reconceptualise the ranking of humanities journals, the ERIH attracted a substantially adverse response (Gorman; Howard). It was argued that devising categories in this way remains antithetical to the process of humanities scholarly communication, and that it ‘creates the hierarchies it claims only to be describing’ (Howard). Critics also point out that despite the claim that the categories indicate ‘scope and audience’ they will inevitably be used as a guide to quality, thereby directing the flow of papers away from the local journals in category C. Cfr. anche J.W. Lamp, Journal Ranking and the Dreams of Academics, Online Information Review

Vol. 33 No. 4, 2009 pp. 827-830.

[17] J.R. Di Leo, Against Rank, Inside Higher Ed, 21.6.2010.

[18] P. Genoni, G. Haddow, ERA and the Ranking of Australian Humanities Journals, AHR 46 (2009).

32 Commenti

  1. Ringrazio dell’articolo, che condivido, e mi permetto di segnalare che la Società Italiana di Filosofia teoretica non ha ritenuto di accogliere l’invito dell’Anvur di produrre una lista ristretta e suddivisa in fasce di ranking argomentando fin dall’inzio la sua posizione con argomenti non del tutto dissimili da quelli prodotti qui.
    Segnalo in particolare l’ultimo documento approvato dal direttivo della Società: http://www.teoretica.it/wp-content/uploads/2011/12/doc_2011-12-21.pdf e in generale la sezione documenti dal medesimo sito:http://www.teoretica.it/?page_id=263.
    Da questi documenti si può anche scorgere il tentativo di aprire da parte della Società una discussione su questi temi con i referenti dell’Anvur per l’area 11, i quali hanno risposto sostanzialmente scavalcando la Società di filosofia teoretica e affidando l’elaborazione del ranking delle riviste del settore a esperti anonimi (e dunque in questo caso irresponsabili) nominati non si sa da chi e secondo quali criteri.

  2. Circa dieci giorni fa, durante un incontro all’Università di Milano, Andrea Graziosi ha spiegato come saranno utilizzati i ranking nel GEV di area 11. Il metodo fondamentale sarà la peer review, nel senso che ogni referee avrà l’ultima parola per quanto riguarda la valutazione dei lavori. Tuttavia, nel caso la qualità del lavoro si discostasse significativamente dalla qualità della rivista o delle editore (come classificata dal ranking) il referee sarà tenuto a fornire una breve spiegazione della discrepanza. L’impatto dei ranking dunque dovrebbe essere molto limitato, e se i referee e i membri del GEV si atterranno a queste procedure molte delle preoccupazioni sopra elencate non dovrebbero avere ragione di esistere. Per esempio, non si capisce perché “anche vista la mole dei prodotti oggetto di valutazione”, dovrebbe essere “assai facile che si produca un trasferimento quasi automatico del ranking dal contenitore al contenuto”. Se un referee non ha voglia di leggere i lavori con attenzione, può tranquillamente rifiutarsi di fare il referee (come facciamo tutti noi quando, oberati dal lavoro, decliniamo l’invito di una rivista). D’altronde l’idea di spiegare la discrepanza con il ranking non sembra così stupida: primo, perché si presume che un lavoro pubblicato su un’ottima rivista abbia già superato diversi referaggi severi; secondo, perché qualora le discrepanze fra (certi) referee e (certi) ranking si rivelassero ampie e sistematiche, si potrà riflettere sull’affidabilità degli uni e/o degli altri.
    Questa procedura può fallire? Certo: come tutte le peer review, essa dipende in maniera cruciale dalla qualità e dalla serietà dei referee. Ma l’alternativa dai più caldeggiata (peer review “pura”) è criticabile per gli stessi identici motivi.
    Infine: il caso di Filosofia Teoretica è estremamente interessante. Graziosi a Milano ha ampiamente spiegato che uno degli obiettivi del QVR è di valutare la circolazione a livello internazionale della produzione scientifica e umanistica italiana, secondo il principio che in generale (a parte alcune ovvie eccezioni) è inutile e deleterio finanziare ricerca che nessuno legge. Questo è paticolarmente importante per indirizzare i giovani verso un’ audience ampia e di respiro mondiale, in quelle aree dove l’internazionalizzazione non si è ancora compiuta. Che cosa c’entra la filosofia? Nella maggior parte dei paesi stranieri esiste la filosofia della mente, della scienza, della storia, l’etica, la metafisica e l’estetica, ma non la “filosofia teoretica” (è un po’ come se in medicina ci fosse una sotto-disciplina detta “medicina biologica”!). Filosofia Teoretica è un’area disciplinare definita su basi storico-sociologico-dottrinali: detto in soldoni, i filosofi teoretici si identificano con un certo modo molto italico di fare filosofia, e a parte rarissime eccezioni (tipo Giorgio Agamben) i loro lavori non varcano gli angusti confini nazionali (anche se, per strane ragioni, i filosofi teoretici sono rappresentatissimi sulle pagine delle nostre riviste e dei nostri quotidiani). Dunque non sorprende che i filosofi teoretici si siano rifiutati di giocare a un gioco che sicuramente li avrebbe colti molto impreparati. E non sorprende neppure che abbiano prodotto una lista di riviste (non ordinate per fasce) che comprende una proporzione incredibile di riviste nostrane, per lo più sconosciute alla comunità accademica internazionale. Personalmente trovo questo atteggiamento molto deprimente, considerando l’ambizione universalista che dovrebbe caratterizzare l’attività filosofica. (Oltre che suicida: vedi che cosa è successo alla filosofia francese, che pure fino agli anni ’80 aveva prodotto autori di grande caratura, rispetto ai nostri.) Aspetto con grande curiosità di vedere come si comporteranno i membri del GEV e i referee quando valuteranno i nostri riluttanti filosofi localisti.

    • L’uso del ranking delle riviste ha tutti gli svantaggi ricordati da Antonio. Ha però in linea di principio un grande vantaggio: il fatto che i risultati della valutazione sono perfettamente trasparenti (ex ante ed ex post). Il problema è che se lasciamo fare la lista delle riviste alle società disciplinari, il risultato sarà disastroso. Non conosco la filosofia teoretica, ma anche a me lascia mooolto perplesso la lista della società di filosofia teoretica. Così come mi lascia mooolto perplesso la lista delle riviste di sociologia messa a punto dall’AIS. Su quella dei giuristi (area 12) ho già scritto su Roars.
      Ribadisco la mia proposta: forse non c’era bisogno di perdere tempo ed energie nello stilarle. Sarebbe bastato importarne qualcuna fatta all’estero (quella di ERIH, quella ERA, quella norvegese). Se la loro funzione è quella di controllo, come ci racconta Guala, tanto meglio. Che senso ha controllare la peer review fatta in casa e manipolabile sulla base di liste fatte in casa e manipolabili/manipolate?

    • Anche io sono rimasto piuttosto perplesso scorrendo la lista della riviste di filosofia teoretica. Davvero strano che riviste come “Philosophy” o “Mind” non siano considerata tra quelle in cui un filosofo teoretico potrebbe pubblicare. Probabilmente la selezione operata dalla società rispecchia un modo di intendere la filosofia teoretica condizionato da fattori culturali, come diceva Francesco Guala. Se così fosse, le liste compilate all’estero potrebbero essere inutilizzabili, almeno nel senso che probabilmente non conterrebbero molte delle riviste che localmente sono ritenute di buona qualità. A questo punto, forse siamo fuori dal dominio appropriato di una valutazione tecnica, e la questione diventa di politica della cultura. Nello scenario prospettato da Francesco, la filosofia teoretica “local” sarebbe cortesemente accompagnata verso l’estinzione perché gli incentivi spingerebbero le generazioni più giovani a cambiare stile, temi di ricerca, e magari anche lingua per avere valutazioni migliori e quindi rimanere sul mercato accademico. Pur essendo, credo, nella sostanza d’accordo con Francesco nella valutazione di merito della filosofia teoretica “local”, non sono del tutto convinto che il metodo attraverso il quale si ottiene questa conversione intellettuale dei giovani studiosi sia pienamente soddisfacente sul piano etico.

    • Su quanto scrive Baccini. Ho davvero molto apprezzato il suo intervento critico su roars sul lavoro dei GEV. Condivido meno però la sua proposta alternativa, per le ragioni che espongo brevemente. Perché non usare le liste estere già pronte? Ecco un esempio del perché: la attuale lista ERIH (la cui prima stesura 2007 è fallita tra mille polemiche), stilata da un panel di poche persone tra cui nemmeno un italiano, contiene nella categoria INT1 zero riviste italiane, nella categoria INT2 cinque (forse è il caso di dire quali: Acta Philosophica, Angelicum, Bruniana & Campanelliana, Documenti e studi sulla tradizione filosofica medievale, Medioevo), nella categoria NAT diciannove riviste italiane. Di filosofia in generale, non solo di teoretica. Si chieda a qualunque filosofo italiano se queste liste possono essere considerate rappresentative, e se le cinque INT2 rappresentino solo o soprattutto loro la ricerca filosofica italiana con respiro internazionale). Queste liste semplicemente non sono applicabili in Italia. Anche perché l’ERC esplicitamente precisa: “The difference between the categories, as has been stressed in numerous statements of the Standing Committee for the Humanities (SCH) and ERIH Steering Committee, is not of quality but of kind.” E ammonisce che “it is not intended as bibliometric information for use in assessment processes of individual candidates, be it for positions, promotions, research grant awards etc.” Tutto questo prescindendo da molti aspetti comunque assai criticabili delle categorizzazioni in quanto tali (sfugge, ad es., perché le Fichte-Studien siano NAT, le Kant-Studien INT1, le Hegel-Studien INT2; perché la Deutsche Zeitschrift für Philosophie, rivista di sicuro prestigio, sia NAT – perché c’è scritto “Deutsche”?).
      E’ legittimo che la lista delle riviste stilata dalla SIFIT possa non piacere (segnalo però a Ricciardi che è una lista di riviste italiane). Ma è stato precisato chiaramente che non si tratta un ranking, ma una lista di riviste – accreditabili come scientifiche – in cui possono apparire contributi di filosofi del settore, il cui lavoro è per sua natura trasversale rispetto a confini disciplinari che, come chiunque può intuire, non possono avere la nettezza di quelli della chimica degli alimenti o della reumatologia. Ci aspettiamo che siano le motivazioni illustrate – molto analoghe a quelle esposte da Baccini nel suo articolo – (e non ipotesi sul “modo di intendere la filosofia teoretica”) ad essere discusse.

    • Il mio punto è volutamente radicale. Tutto ciò che non sta nelle riviste erih (o altre estere) ha punteggio 0 (sta cioè nel 50% dei peggiori). Questo non mi piace in linea di principio, ma è un criterio rozzo di internazionalizzazione. E nella scelta tra un criterio rozzo e trasparente, e gli aggiustamenti opachi dell’accademia italiana, preferisco la prima alternativa. Purtroppo mi sembra che la situaziona attuale ci stia trascinando nella direzione degli aggiustamenti opachi, chiamandoli per di più “indicatori bibliometrici oggettivi”. Una alternativa migliore e meno radicale (il bisturi anziché l’accetta) sarebbe sicuramente preferibile e possibile. Le regole attuali, se il ministro non ci mette mano, ho l’impressione che non la permettono.

    • Una piccola rettifica sulla presenza di riviste italiane nella ERIH 2011 revised list: “Storia della Storiografia” è in fascia INT1

    • Ringrazio Abbattista della precisazione, e felicitazioni a “Storia della Storiografia”; ma mi riferivo evidentemente alla lista ERIH delle riviste di filosofia.
      Colgo l’occasione per osservare che i criteri GEV per l’area 11 appena pubblicati rimandano alla lista ERIH per quanto riguarda le riviste internazionali; al contempo, nelle liste “italiane” da loro prodotte tre delle cinque riviste italiane INT2 che citavo presenti nella lista ERIH non sono presenti da nessuna parte. Dunque il GEV rimanda all’ERIH ma agisce in modo del tutto difforme dell’ERIH. Qualcuno avrà ragione, qualcuno avrà torto, ma non possono stare insieme. Oppure, come si sa, due cose contraddittorie, se non possono essere entrambe vere, possono essere entrambe false, o meglio entrambe insensate.

    • Quello che Graziosi ha detto a Milano era già circolato, e tranquillizza poco. Qualcuno (a cominciare da Guala, che condivide l’impresa) dovrebbe spiegare come mai si è messo tanto impegno – seppure con gran fretta e confusione – a stilare ranking di riviste senza criteri noti e in forme senza precedenti il cui “impatto […] dovrebbe essere molto limitato”. Mi sembrano debolissimi gli argomenti che mostrerebbero che “l’idea di spiegare la discrepanza con il ranking non sembra così stupida”. Il primo: “perché si presume che un lavoro pubblicato su un’ottima rivista abbia già superato diversi referaggi severi”. Il punto è esattamente chi stabilisce e come che si tratta di “un’ottima rivista”; e che le altre non lo siano. Il secondo argomento fa quasi sorridere: “qualora le discrepanze fra (certi) referee e (certi) ranking si rivelassero ampie e sistematiche, si potrà riflettere sull’affidabilità degli uni e/o degli altri”. E’ esattamente sull’affidabilità di certi ranking (che vuol dire: di ranking fatti in certi modi) che si è scelto di riflettere, prima, con argomenti dettagliati cui non si è data da parte dell’ANVUR alcuna risposta. Un elementare principio di serietà e prudenza impone di non aspettare i disastri, quando si può. Schettino aveva in mano la carta nautica buona, e dunque i risultati dimostrano la sua inaffidabilità. Ma nessuno andrebbe su una nave sulla quale ci si propone di riflettere sull’affidabilità di carte nautiche improvvisate solo qualora si rivelassero “discrepanze” – dopo il naufragio.
      Fa sorridere anche la conclusione: “Questa procedura può fallire? Certo: come tutte le peer review, essa dipende in maniera cruciale dalla qualità e dalla serietà dei referee. Ma l’alternativa dai più caldeggiata (peer review ‘pura’) è criticabile per gli stessi identici motivi.” Se entrambe le procedure possono fallire per mancanza di qualità e serietà dei referee, ci si dovrebbe concentrare su quelli, invece di fornire strumenti approssimativi, quindi dannosi (un termometro che funziona male non è un aiuto parziale, è un ostacolo).

      Fanno meno sorridere, invece, gli attacchi generici ai filosofi teoretici italiani e persino alla filosofia teoretica. Se c’è qualcosa di davvero e solo “italico”, sono i ranking fatti così, e le discussioni ridotte a polemiche di questo tipo. I documenti che la SIFIT ha prodotto contengono argomenti, e argomenti seri, su questo. Se si ha voglia, li si discuta, nel merito.

  3. Purtroppo non ho ora il tempo per un commento più lungo. Mi fa comunque piacere che sulla questione si sviluppi il dibattito. In settimana torneremo sul tema con un pezzo di segno diverso dal mio. Solo una rapida osservazione: c’è un problema irrisolto di fondo. Siccome viviamo in Italia, la valutazione ha il problema intrinseco di dover essere progettata come strumento che sfugga alle manipolazioni, il che può portare a scegliere anche soluzioni scadenti, davanti al rischio delle “camarille”. Nel REF domina la peer review, ma noi la temiamo perché i revisori sono, diciamo così, potenzialmente poco seri. Questo è un problema che per essere risolto probabilmente richiederà anni e molti sforzi. Secondo punto: ho l’impressione che in molte discipline (economia particolarmente, ma non solo), alcuni percepiscano la valutazione come un’occasione per cambiare – a torto o a ragione – l’orientamento di parti più o meno consistenti della comunità accademica. Questo non credo che sia parte dei compiti della valutazione.

  4. Condivido pienamente quello che scrive Banfi e, a differenza di La Rocca, più che sorridere piango. Alcuni esempi:
    (1) “Chi stabilisce e come che si tratta di un’ottima rivista; e che le altre non lo siano”? Lo stabiliscono i NOSTRI COLLEGHI, e fino a quando non ci fideremo del giudizio della comunità accademica alla quale apparteniamo non andremo da nessuna parte. Questa mancanza di social capital (come ho già scritto in altra occasione) è uno degli aspetti più scioccanti della cultura accademica italiana per chi ha avuto esperienze all’estero.
    (2) “Se entrambe le procedure possono fallire per mancanza di qualità e serietà dei referee, ci si dovrebbe concentrare su quelli, invece di fornire strumenti approssimativi, quindi dannosi”. Ebbene, l’Anvur si è già concentrata sulla scelta dei membri del GEV e ora si sta occupando dei referee. Ma siccome nessun metodo è infallibile (e a quanto pare l’Anvur ne è consapevole), chiunque abbia fatto della ricerca scientifica sa che è meglio TRIANGOLARE fra metodi imprecisi piuttosto che affidarsi un metodo soltanto (fra l’altro poco trasparente, come ci ricorda Baccini). Se leggo un articolo che mi sembra una boiata e poi scopro che è stato pubblicato sul British Journal for the Philosophy of Science – che tutti i miei colleghi considerano una rivista eccellente – posso suggerire al capo del mio GEV di chiedere un parere indipendente a un altro referee, perché magari io non sono riuscito a cogliere il valore del lavoro. Mi sembra che si tratti di buon senso. Se invece aspettiamo la procedura infallibile (che non esiste) faremo il VQR nel 2025. o più probabilmente mai, per la gioia di chi si rifiuta di partecipare al gioco della valutazione.
    (3) Il mio non è un attacco alla Filosofia Teoretica, di cui sinceramente mi importa poco. E’ davvero una domanda interessante: nell’era della globalizzazione della cultura, ha senso ancora difendere discipline che si rifiutano di entrare nella competizione internazionale delle idee (a cominciare dall’organizzazione delle riviste, che raramente sono referate, per continuare con la pretesa di inserire solo riviste italiane nella lista fornita all’Anvur, e così via)?
    Queste domande sono legate a quelle di Ricciardi e Banfi e di coloro che hanno notato come l’Anvur si muova spesso in un’ottica di riforma più che di misurazione. Ma la sociologia e la storia della scienza ci dicono che la misurazione è quasi sempre mirata all’intervento, quasi mai fine a se stessa, perché è uno strumento POLITICO. Di questo abbiamo a quanto pare un po’ tutti paura, e di questo forse dovremmo parlare più apertamente.

    • Al gentile collega della filosofia teoretica importa poco, ma stiamo parlando di valutazione, che può importare a molti, e dunque aggiungo brevi osservazioni, visto che nella replica di Guala c’è almeno un embrione di argomentazione.
      1) “Lo stabiliscono i NOSTRI COLLEGHI”: ma non erano gli stessi che potevano far fallire tutto? E trattandosi di nostri (pochi) colleghi, è lecito che tutti gli altri discutano come lo stabiliscono? E visto che lo stanno facendo in un modo che non ha precedenti all’estero, quell’estero alle cui “esperienze” ci si richiama, è possibile sospettare (rinvio anche alle circostanziate argomentazioni di Baccini e Banfi) che lo stiano facendo male o malissimo? Che cosa c’entra il “social capital”?
      2) Guala: “Se leggo un articolo che mi sembra una boiata e poi scopro che è stato pubblicato sul British Journal for the Philosophy of Science – che tutti i miei colleghi considerano una rivista eccellente – posso suggerire al capo del mio GEV di chiedere un parere indipendente a un altro referee, perché magari io non sono riuscito a cogliere il valore del lavoro. Mi sembra che si tratti di buon senso”. Forse il buon senso suggerirebbe, se non usato a singhiozzo, che è possibile anche “non cogliere il valore del lavoro” di un articolo non uscito su una rivista eccellente. E comunque, se tutti i miei colleghi considerano una rivista eccellente, forse la considero tale già anch’io, non ho proprio bisogno di ranking.
      3) “E’ davvero una domanda interessante: nell’era della globalizzazione della cultura, ha senso ancora difendere discipline che si rifiutano di entrare nella competizione internazionale delle idee (a cominciare dall’organizzazione delle riviste, che raramente sono referate, per continuare con la pretesa di inserire solo riviste italiane nella lista fornita all’Anvur, e così via)?” Che una domanda sia interessante forse non si dovrebbe dirselo da sé. Ma pazienza. Però anche le domande, come le risposte, hanno bisogno che si sappia di ciò di cui si parla. Dunque si dovrebbe spiegare da cosa si ricava che una disciplina (!) “si rifiuta di entrare nelle competizione internazionale delle idee”; che le (??) riviste “raramente sono referate”; e si dovrebbe considerare che persino l’ANVUR ha ritenuto l’universo delle riviste filosofiche straniere troppo vasto e rimanderà … alle liste ERIH, di cui si è detto. Un ranking serio non si improvvisa, figuriamoci se abbraccia tutto il mondo. Nell’era della globalizzazione.

  5. Pochi punti (evitando di soffermarmi sulle cose che mi sembrano solo polemichetta farcita di retorica pomposa).
    (1) Banfi dice: “in molte discipline alcuni percepiscono la valutazione come un’occasione per cambiare – a torto o a ragione – l’orientamento di parti più o meno consistenti della comunità accademica. Questo non credo che sia parte dei compiti della valutazione.” Nemmeno io vorrei crederlo. E tuttavia eludere la questione connessa agli inevitabili potenti effetti collaterali sul piano culturale e politico di azioni valutative vorrebbe dire non considerare le implicazioni che l’impatto della valutazione ha sulla realtà che valuta. E’ per questo secondo me che non si può procedere in modo raffazzonato, sloganistico e populistico come si sta invece facendo (questa cosa piacerà un sacco ai giornali e a Bruno Vespa).
    (2) Baccini dice che il suo punto è volutamente radicale. A me non sembra tale. Sostanzialmente dice: qui si stanno costruendo delle reti per pescare che sono fatte in modo posticcio, forse anche un po’ ridicolo e presumibilmente a difesa di interessi particolari (per pescare solo i pesciolini che piacciono a qualcuno). Per evitare questo usiamo delle reti che ci sono già sul mercato. Non riescono di fatto a pescare quello che ci interesserebbe pescare (come ha ben argomentato La Rocca), ma almeno sappiamo con cosa abbiamo a che fare. A me non sembra un buon modo di procedere. Di fronte a questa situazione una scelta onesta e davvero radicale è quella che dice: non abbiamo uno strumento bibliometrico efficace, per costruirlo ci vuole troppo tempo e peraltro sulla base di tutte le esperienze internazionali finora compiute non sappiamo nemmeno se siamo in grado di produrlo. Per cui cambiamo strada. Chiediamo con forza di andare di bisturi. Operare un paziente con l’accetta di solito non produce buoni risultati. Più che un’azione radicale essa rischia di rivelarsi un’azione inutile (oltre che evidentemente dannosa).
    (3) Sulle perplessità della lista della Società Italiana di Filosofia Teoretica: quella lista non è affatto il segno di una rinuncia. Quell’elenco vuole testimoniare (anche e soprattutto attraverso gli argomenti con cui è accompagnato e a cui nessuno, a me pare, ha risposto – di certo non l’ANVUR) l’artificiosità di scelte che, affidate alle società scientifiche, altro non sono, come credo risulterà evidente al momento della pubblicazione del documento ANVUR, se non luoghi di composizione di interessi particolari e lobbistici. E questo non ha a che fare con la sfiducia nei confronti della comunità scientifica (che è una nozione un po’ più complessa di quanto certe retoriche non vogliano far credere), ma con lo strumento che si è scelto di adottare: quello della segnalazione da parte delle società di settore di una lista ristretta di riviste e case editrici da farsi nello spazio di poche settimane senza fornire criteri, senza discutere i presupposti e le finalità di questa operazione, senza alcuna anche minima analisi di fattibilità del prodotto. Uno strumento, quello della segnalazione delle liste ristrette suddivise in fasce, che implica o l’uso di banali strumenti sondaggistici (nei quali vincono i luoghi dove si pubblica di più, non quelli dove si pubblica meglio) o decisioni verticistiche nelle quali quella cosa complessa e articolata che è, soprattutto in filosofia, la comunità scientifica è tagliata fuori da qualsiasi riflessione.

  6. Mi pare di percepire che l´articolo e i commenti sottendono un disagio profondo, velato da una paura serpeggiante di manipolazione, “che potrebbe essere politica”, dettata da scelte top-down frettolose e i cui effetti “incogniti” potrebbero essere devastanti!
    Queste proposte di creare liste, fare ranking sono pericolose se non fatte in modo oculato (testate con studi di fattibilità “da soggetto terzo e imparziale” che richiedono probabilmente anni) e sembrano anche segno di una necessità di iper-controllo in cui è <> .

  7. Continuo lo cambio perché mi sembra che finalmente siamo arrivati a un livello di discussione concreto e costruttivo. Spero che queste risposte a La Rocca e Illetterati aiutino a chiarire alcune questioni di fondo:
    (1) “All’estero non si fa così”: falso. Negli Stati Uniti e in Gran Bretagna è prassi comune stilare ranking di riviste che aiutino i revisori nel prendere decisioni. Questo accade regolarmente per esempio in fase di hiring committee, quando il membro esterno (proveniente da un altro dipartimento) chiede al dipartimento che sta operando la selezione di fornire una lista o ranking delle riviste migliori nel loro campo di ricerca, in modo da farsi un’idea della produzione dei candidati (PRIMA di leggere i CV, ovviamente!). Questo metodo non si sostituisce alla lettura attenta dei lavori, ma è considerato un aiuto importante. Per esempio: se un candidato brillante ha scritto delle cose che sembrano di buona qualità ma ha sempre pubblicato su riviste marginali, la questione viene sollevata in fase di valutazione. Inoltre il ranking tende a prevenire i tentativi più smaccati di promozione dei candidati interni mediocri. Esso non diventa il criterio ultimo e dirimente (come nel caso del GEV 11) ma aiuta a sollevare dubbi e quindi a raccogliere più informazioni qualora sia necessario. Allo stesso modo, nel RAE inglese le società accademiche sono interpellate e forniscono strumenti di supporto ai membri dei comitati di valutazione. Si noti che in tutti questi casi si combinano criteri disparati e tutti imprecisi (ranking, lettura dei lavori, CV, lettere di raccomandazione, citazioni, premi) ma “triangolando” si arriva di solito a una serie di valutazioni che non sono mai perfette, ma sicuramente molto migliori (in aggregato) di quelle basate su un singolo criterio.
    2) “è possibile anche non cogliere il valore del lavoro di un articolo non uscito su una rivista eccellente”: è evidente che il mio esempio era, appunto, solo un esempio. Il principio generale va applicato anche a quei lavori che sembrano buoni al referee ma sono pubblicati su riviste marginali (come nel caso illustrato poco sopra). Secondo quanto dice Graziosi, la discrepanza con il ranking non dovrebbe impedire di classificare un lavoro pubblicato su una rivista marginale in fascia A, ma dovrebbe essere utilizzato come campanello di allarme.
    3) Le società scientifiche sono “luoghi di composizione di interessi particolari e lobbistici”: sono contento che finalmente sia venuto fuori il rospo; come dice bene Libera, il problema di fondo è politico, non tecnico, perché molte obiezioni al VQR nascono da “un disagio profondo, velato da una paura serpeggiante di manipolazione”. Molti accademici italiani non hanno una buona opinione (eufemismo) dei loro rappresentanti. Il capitale sociale è proprio questo: la fiducia reciproca che ci permette di cooperare senza doverci controllare a vicenda a ogni passo, senza porre veti incrociati a ogni iniziativa volta a migliorare la qualità del nostro lavoro.
    Riflettiamo: se l’Anvur vuole consultare qualcuno riguardo ai criteri di valutazione della ricerca filosofica, a chi deve rivolgersi? Suppongo che telefonare a Illetterati, La Rocca, Guala ecc. sia un po’ costoso e impraticabile. Contattare le società scientifiche è la procedura normale e più sensata (anche all’estero). Se queste società non esprimono il punto di vista dei membri del settore, questo direi è un problema che i membri stessi devono cercare di risolvere al più presto. Temo che il problema sia più comune quando il settore è frammentato e non rappresenta un orientamento comune né di metodo né di contenuto della ricerca. Mi dispiace citare di nuovo il caso di Filosofia Teoretica, ma mi sembra un caso da manuale. Forse un settore “teso a lavorare fra le maglie del discorso filosofico in tutte le sue possibili articolazioni, dal discorso storico-filosofico a quello logico-analitico, da quello fenomenologico a quello epistemologico”, qualche problemino è naturale che ce l’abbia (cito dai documenti ufficiali; se non siete convinti vi consiglio di leggere l’editoriale su http://www.teoretica.it). Forse davvero è un settore unito soltanto da interessi lobbistici (fare vincere i concorsi ai propri allievi, ecc.) e forse i filosofi teoretici dovranno prima o poi affrontare il problema. Forse – sono un inguaribile ottimista! – uno dei pregi del VQR è che spostando il discorso ai contenuti della ricerca, sta facendo emergere alcune contraddizioni di fondo nell’organizzazione dell’accademia italiana. E chissà che prima o poi non si riesca ad affrontarli con spirito di collaborazione, invece che con sospetto e paura delle “incognite devastanti”.

    • (1) E’ evidente che quando si dice che all’estero non si fa così, non si sta dicendo che all’estero non si usano i ranking (anche se le esperienze più recenti – come documentato da roars – mostrano qualcosa più di semplici cautele nel ritenerli strumenti affidabili ed efficaci); si dice chiaramente che all’estero non li si costruisce così, nel modo in cui li si sta costruendo qui. Se Guala conosce un’esperienza nella quale si è proceduto nel modo che è stato descritto dai diversi interventi che meritoriamente roars ha pubblicato e del quale si sta qui discutendo mi farebbe sinceramente piacere saperlo.
      (2) Circa i raggruppamenti disciplinari in filosofia nutro personalmente serie perplessità sul fatto che davvero essi abbiano una loro effettiva legittimazione filosofica in termini, appunto, rigorosamente “disciplinari”. Strawson che discute Kant (o magari di metafisica descrittiva oppure di schemi concettuali), Bernard Williams che discute Platone (o anche di agente morale o del concetto di giustizia), Leo Strauss che discute Hobbes (o anche del concetto di relativismo oppure di legge di natura) Dieter Henrich che discute Hegel (o ell concetto di autocoscienza), Stanley Cavell che discute di Wittgenstein (o anche di ontologia del film) non so se sono storia della filosofia, metafisica, filosofia politica, estetica, filosofia morale, epistemologia, o anche altro ancora. Ho l’impressione che siano filosofia, indipendentemente dal fatto che noi si riesca a collocarli dentro le etichette disciplinari che sembrano mettere tutto in ordine. Anzi devo dire che quando mi trovo di fronte a stili di pensiero che hanno “qualche problemino” con le partizioni disciplinari ho non di rado l’impressione di trovarmi vicino a un discorso che ha a che fare con quella cosa che mi sembra essere la filosofia.

  8. Non bisogna dimenticare quanto anche Alberto ha ricordato. Questo esercizio di valutazione è strutturalmente mal pensato, frutto di una logica dirigistica che pensa di creare forzatamente eccellenza a costo zero. In realtà l’eccellenza va sostenuta, là dove c’è, ma non si crea pianificandola. Come un buon giardiniere innaffia le sue piante più promettenti, il policy maker dovrebbe usare la valutazione per una corretta allocazione delle risorse. Il problema che ci troviamo davanti è invece quello 1) della confusione fra valutazione e policy making 2) dell’idea che attraverso pianificazioni imposte dall’alto si possono ottenere con certezza i risultati voluti 3) che la ricerca minoritaria, di nicchia o locale vada estirpata. Sul punto 3): io la lascerei campare com’è, con le sue limitazioni, ma destinerei ad altri il grosso dei fondi.

  9. Sull’ultimo commento di Guala punto 3). Io un’idea ce l’avrei. Un CUN riformato come rappresentante elettivo delle discipline (non delle categorie!) potrebbe essere il luogo di intermediazione trasparente fra quanto emerge da soc. disciplinari spesso non preparate sulle questioni della valutazione se non poco rappresentative (per dire: i civilisti ne hanno 3, ma in genere tutte queste società non sono nate per fare questo genere di cose e sappiamo bene che grado di rappresentatività abbiano alcune di esse). Una architettura istituzionale con un CUN riformato che funga da bilanciamento e interlocutore di ANVUR potrebbe credo cambiare le cose.

  10. Io invece non credo che ci possa essere uno “spirito di collaborazione” con una impostazione come quella di Guala. Credo che ci debba essere un conflitto aperto, perché i presupposti e gli obbiettivi (oltre che lo stile dell’argomentazione) non ammettono composizioni. Guala dice che si deve “Valutare la circolazione a livello internazionale della produzione scientifica e umanistica italiana, secondo il principio che in generale (a parte alcune ovvie eccezioni) è inutile e deleterio finanziare ricerca che nessuno legge”. Ma questo principio generale su che cosa poggia? E’ una evidenza eidetica? Trattandosi di soldi pubblici devono fruttare, rendere economicamente (value for money)? Questo ragionamento o è di buon senso troppo di buon senso, o è una presa di posizione politica determinata da argomentare: in entrambi i casi, avanzato senza ulteriore giustificazione, è perlomeno un ragionamento debole. Che la filosofia debba essere “utile” o addirittura rendere economicamente non è, filosoficamente parlando, affatto pacifico: e questo a partire da Aristotele per arrivare fino a Zizek (che nomino non perché sia alla stessa altezza di Aristotele ma perché, sul mercato intellettuale della cultura e/o accademico, lui e i suoi libri al momento vanno sicuramente più forte di Aristotele, e dunque, dati i sillogismi in premessa, merita di certo ampio sostegno… il che anche fa piacere perché sul concetto di mercato e libero mercato in effetti ha qualcosa da dire). E perché sarebbe addirittura “deleterio” sostenere una ricerca che nessuno al momento legge? E quali sarebbero le “ovvie eccezioni” a questo principio luminoso? Chi le riconoscerebbe come tali? E sulla base di quali criteri?
    Ma, in effetti, in questo discorso le evidenze nascoste abbondano. “Filosofia Teoretica è un’area disciplinare definita su basi storico-sociologico-dottrinali”, dice Guala. Mentre nel resto del mondo, dice, si parla invece di “Filosofia della mente”, “Filosofia della storia” o “Estetica”… le quali bisogna supporre che derivino assai filosoficamente dalle “cose stesse”, come ambiti regionali eideticamente fondati, e di certo non abbiano genesi o genealogia storica o sociale o, dio ce ne scampi, dottrinale, né si mischino allo sviluppo della cultura (e chissà come mai fino al ‘700 nessuno si era accorto che esisteva l’estetica o c’è ancora oggi chi si chiede se la filosofia della mente, o anche la mente, sia davvero qualcosa). C’è uno storico della filosofia in sala? Qualche storico/filosofo/sociologo/della cultura? Urge un corso, anche da mezzo credito. Perché c’è da chiarire anche qualche altra cosetta, spacciata come evidenza “L’ambizione universalista che dovrebbe caratterizzare l’attività filosofica”. Qui siamo allo zenith. Perché come è noto Kierkegaard, Nietzsche, Stirner, Simmel, Heidegger, ma anche indietro tutta la filosofia classica, dai pitagorici alla settima lettera, l’hanno sempre pensata così. Su quali basi si sta parlando? Siamo tra studiosi o pensionati su un autobus? Si deve pensare la seconda, quando parlando di filosofia – di filosofia! – si lamenta che “il settore è frammentato e non rappresenta un orientamento comune né di metodo né di contenuto della ricerca”.
    Ma il meglio si tocca quando Guala dice che “non sorprende che i filosofi teoretici si siano rifiutati di giocare a un gioco che sicuramente li avrebbe colti molto impreparati. E non sorprende neppure che abbiano prodotto una lista di riviste (non ordinate per fasce) che comprende una proporzione incredibile di riviste nostrane, per lo più sconosciute alla comunità accademica internazionale”. Non solo perché qui, tra tante evidenze, sfugge quella scritta in cima alla lista, che cioè di tratta volutamente di un elenco di riviste solo italiane e volutamente il più ampio possibile, ma l’argomento passa, o meglio si abbassa volgarmente, ad personam. Quel tale – sì, quello che ora se ne vendono a fette, anzi a librettini gialli, il tedesco, la cui prima opera finì al macero invenduta e nessuno lesse né citò né discusse per trent’anni a venire… quello che poi adesso tutti coloro che vedono eccezioni solo quando non sono più tali sanno chi è, ecco, quello lì – questa diversione la chiama argomento ad hominem, spiega che è ignobile e soprattutto che “non stabilisce nulla in merito alla verità oggettiva”. Da leggere, va forte sul mercato. E poi di rincalzo, nel nuovo intervento, Guala cita: un settore “teso a lavorare fra le maglie del discorso filosofico in tutte le sue possibili articolazioni, dal discorso storico-filosofico a quello logico-analitico, da quello fenomenologico a quello epistemologico” – e Guala glossa “qualche problemino è naturale che ce l’abbia… Forse davvero è un settore unito soltanto da interessi lobbistici”. Ma cosa giustifica affermazioni così gratuite (lasciamo stare insultanti)? Cosa c’è che sorprende se una disciplina fondamentale (quella che un tempo si chiamava “logica e metafisica”) interviene in tutte le articolazioni del discorso filosofico? Un filosofo, anche un buon artigiano della filosofia – non so se Guala lo sa – in genere fa così.
    Ma torniamo alle questioni minute. Le Società scientifiche, ci viene detto, sono il naturale interlocutore delle agenzie di valutazione… Non c’è niente di strano, allora, nel fatto che non si tengano in nessun conto le obiezioni sollevate dalla Sifit, la quale piaccia o meno è una Società scientifica? Nessuna contraddizione? Le classifiche di Filosofia teoretica che stanno per uscire non sono state fatte da questo “naturale interlocutore”, anzi, in verità non si sa nemmeno da chi siano state fatte… e a tutti gli argomenti portati dalla Società di filosofia teoretica non si è stati capaci di rispondere nel merito neppure una volta. Né Guala ci riesce – salvo a prefigurare… cosa? la strategia di delegittimazione che per questo particolare interlocutore naturale si sta preparando? Lobbisti, confusi, incapaci… teoretici, ah ah… E’ così che funziona fuori – da dove Guala guarda dando per scontato, chissà perché, che siano il meglio (e per favore si eviti di argomentare il perché con indicatori, ranking e simili, ché di argomenti che si mordono la coda ne abbiamo ascoltati abbastanza)? Cioè, si dice che le società vanno bene e funzionano solo se eseguono le disposizioni che vengono loro impartite dalle agenzie di valutazione? E’ questo che dobbiamo aspettarci?
    Eppure anche in UK le cose sono un tantino più variegate di quanto Guala ci propone. Non solo perché, diciamolo di nuovo, il REF non utilizza liste e anzi si esprime contro il loro uso (se poi le usa qualcuno quando va dal salumiere, o qualche università per fare i conti al suo interno, è faccenda diversa). Ma anche perché, accanto a chi si fa i suoi ranking casalinghi, c’è un dibattito acceso e di conseguenza una ricca bibliografia di prese di posizioni contrarie a questo strumento, come peraltro dappertutto, specie dopo che si sono visti i risultati dei ranking europei (ERIH, ritirati e adesso ripresentati sotto una forma assai ambigua e con la prescrizione di non usarli o quasi, come ha sottolineato La Rocca), di quello francese (finito nel marasma, se non nel ridicolo) e di quello australiano (ritirato dal governo per aver prodotto “seri danni”, tra i festeggiamenti della locale Accademia delle Scienze) – e sui ranking in USA rimando al recente articolo di Coniglione su Roars. Questo non per dire che altrove si sia più bravi che qui da noi – un principio che lascio ad altri, perché tutto da dimostrare – ma per dire che altrove ci si è accorti che quel che stiamo tardivamente e approssimativamente cercando di imitare è uno strumento sbagliato. E soprattutto per dire che, se vogliamo guardare allo scenario internazionale, la prima cosa che salta agli occhi è il dibattito che c’è – lì sì e qui poco o nulla – su questi temi, sicché il vero tratto provinciale è, a me pare, tacere di questo dibattito. A cominciare, per esempio, dall’articolo di K. Thomas http://www.lrb.co.uk/v33/n24/keith-thomas/universities-under-attack, che ha fatto il giro del mondo, e a continuare, per esempio, con uno storico del King’s College di Londra, Richard Drayton, che in un recente convegno osserva “While in theory academic freedom to teach and to learn will survive, scholars will come under visible and invisible pressure to work for the pirate class, or at least to perform for their entertainment, and so academics can sometimes become a kind of intellectual lapdancer, gyrating to excite the attention of the rich and to provoke small tips” (ma sono solo un paio di esempi vistosi, basta un giretto su Google… poi invece se si vuole si può andare sul tecnico).

  11. Una rapida osservazione sul commento di Valeria Pinto. Partiamo dal presupposto che siamo d’accordo sul fatto che ci sono diversi problemi nell’uso dei rankings che viene prospettato, problemi di cui abbiamo discusso e discuteremo ancora su questo sito. Tuttavia, a me pare che alcuni dei problemi posti da Francesco Guala non si possano liquidare così facilmente, e che le sue riserve su parte della filosofia italiana siano del tutto legittime. Anche se a alcuni di noi dispiace, viviamo in società in cui l’idea di finanziare con soldi pubblici ricerche che nessuno legge risulta inaccettabile ai più. Ora noi possiamo deprecare quanto vogliamo l’insensibilità del volgo nei confronti della verità, e persino dare ragione a chi pensa che la democrazia reale non sia un luogo ospitale per la filosofia, ma non mi pare che assumere simili atteggiamenti nella discussione pubblica ci porti troppo lontano. Sopratutto non ci farà guadagnare un centimetro dello spazio che la filosofia ha perduto in termini di autorevolezza nella discussione pubblica. Neppure possiamo dimenticare che le posizioni di Keith Thomas e di tanti altri che abbiamo segnalato su Roars hanno la forza che hanno – temo poca ormai – anche perché vengono da persone che nella discussione internazionale ci sono state per decenni, e in ruoli di primo piano. Oggi quelle persone – che si sono formate in un mondo in cui non c’era bisogno di rankings e di RAE, perché se eri un Fellow di New College e avevi un problema alzavi la cornetta del telefono e chiamavi il primo ministro – si trovano comprensibilmente a disagio in una università di massa e molto più dipendente dal consenso popolare. Ma credo che sia più saggio lasciare a loro questo tipo di atteggiamenti. Per quel che ci riguarda, temo che l’onere della prova sia per molti di noi più difficile da sostenere, ma probabilmente inevitabile. Poi si può discutere dell’opportunità politica di alcune delle scelte che si stanno compiendo, ma abbiamo bisogno di argomenti molto più forti di quelli usati da Valeria. Intimare ai nostri intelocutori di prepararsi meglio e ripresentarsi all’esame non mi pare un passo nella giusta direzione.

  12. Però a me non pare di avere portato argomenti deboli. Semplicemente non ho portato argomenti. Sono intervenuta – in un commento – per dire che non ce la si può cavare a buon mercato con presunte evidenze (quando non scorrettezze) e che occorrerebbe aprire una discussione portando appunto argomenti precisi: quel che in questo caso non era stato fatto e che – ciò che più conta – quel che l’ANVUR non ha mai fatto. La richiesta, molto semplicemente, è di non dare per scontato quel che non lo è. O, per metterla in altri termini e rivolgendosi a chi guarda tanto fuori per prendere buoni esempi, è di fare né più né meno quel che fuori si è fatto, dove la discussione è accesa (come lo stesso Ricciardi altrove sottolinea) e non solo da parte di qualche figura aristocratica, ma diffusamente. Basti pensare al best seller del momento, vale a dire il libro della Nussbaum, del quale anche su Roars si è parlato, o anche al tema del sapere e/o dell’istruzione come “bene comune” all’interno del più vasto confronto sui cosiddetti commons, anche questo molto animato fuori dai confini locali o in altri ambiti. Ma non è di quel libro che mi interessa parlare, né è mia intenzione proporre o difendere qui l’idea assai problematica di “comune” e/o di “bene comune”. Mi sembra solo importante dire che un atteggiamento critico contro un’idea oramai prevalente della cultura e della cultura umanistica non può essere delegittimato per principio o guardato con sospetto, salvo a consentirlo unicamente a figure di riconosciuto prestigio, le quali risultano però poi subito neutralizzate con la semplice osservazione che si tratta di vecchi accademici nostalgici della passata università di élite. No. Qui non è questione di guardare indietro, ma di provare a confrontarsi col presente e col futuro che certe trasformazioni stanno producendo. Per esempio, facendo emergere (niente di originale, in altri contesti lo si sta facendo con decisione e da tempo) lo spessore teorico del problema della valutazione. Ma di tutto questo – tra professioni di concordia vuote e ovunque ripetute, che è bene a questo punto contestare in radice – da noi non si è parlato. Tutto è avvenuto non semplicemente nel silenzio, ma anzi di nascosto, nottetempo, all’insaputa dei più: e non per colpevole trascuratezza dei più, in questo caso – no, solo proprio perché lo si è voluto tenere nascosto (un modo di procedere che per chi fa della trasparenza una bandiera mi pare quantomeno singolare!).
    Quando sui grandi quotidiani si è gettata luce sull’argomento lo si è fatto con un fascio orientato in un’unica direzione. Ma questo ci può anche stare: vecchi gruppi di pressione, nuovi modelli ideologici, nuove strutture di potere (con gregari annessi)… è normale. Quello che invece oggi spaventa è l’ovvio, il buon senso, la ragionevolezza, il finto equilibrio che vuole dominare su tutto (ancora oggi, il nuovo articolo di Repubblica). Non si tratta di guardare con disprezzo alle “idee del volgo”. Il volgo c’entra poco, perché al volgo (se si vuole adoperare un’espressione che io non adopererei), si fa arrivare quel che si vuole, in una campagna di delegittimazione pubblica del ruolo dell’università, della ricerca, del lavoro intellettuale che va avanti da anni ed è degna delle più classiche macchine di propaganda. Quello che io contesto a chi sbandiera best pratice ogni due e tre è l’insistito rifiuto di quell’elementare buona pratica che è il confronto anche aspro tra idee. Questo è quanto, non pensavo certo di essermela cavata con un post.
    Per concludere, colgo l’occasione anche per un’osservazione sul primo intervento di Ricciardi – meritorio per avere chiaramente mostrato la finalità politica contenuta nelle affermazioni di Guala, ma per me preoccupante. Ricciardi scrive “Forse siamo fuori dal dominio appropriato di una valutazione tecnica, e la questione diventa di politica della cultura”. Il fatto però è che una valutazione tecnica fuori da una politica della cultura è soltanto una finzione, come tutti gli studiosi di valutazione sanno, e come anche qui è stato sottolineato da più parti. E qual è, ora, la scelta politica sul tappeto, la scelta di politica della cultura, cioè, o forse anche l’obiettivo politico tout court (come denunciava altrove in un commento Dantini)? La scelta, l’obiettivo è, si legge, “la conversione intellettuale dei giovani studiosi”. Si dà quest’obbiettivo per condiviso e rispetto ad esso ci si chiede solo se lo strumento di una valutazione basata su criteri tecnici sia eticamente opportuno. In altre parole: che si debbano convertire è certo; la questione è soltanto come. E se non volessero? E lo giudicassero – in scienza e coscienza – sbagliato? Mi viene da pensare all’articolo di uno studioso della valutazione tedesco, Stefan Hombostel, che s’intitola “Neue Evaluationsregime? Von der Inquisition zur Evaluation”.
    Il fatto è che un certo tipo di sapere detto – per usare una parola anch’essa da tempo assai in voga insieme a qualità eccellenza e trasparenza – “autoreferenziale” (e anche su questa parola un po’ di decostruzione farebbe bene) è, si dice, “superato ”. E’ superato, eppure stenta ad esalare l’ultimo respiro, si mantiene in vita grazie solo ad un accanimento terapeutico, ad alimentazione forzata, a respirazione artificiale, a sonde, tubi e macchine che succhiano denaro pubblico… uno spreco: sarebbe meglio dare queste risorse a chi gode di ottima salute ed è in grado di correre, anzi di concorrere… E se proprio si deve dare qualcosa alle humanities (si dice così, ora, no?) per non fare brutta figura in società (un vestito buono bisogna pure averlo nell’armadio, per le occasioni che contano), che sia un sapere da haute couture o, se non ce lo possiamo permettere, in alternativa un fast fashion comunicativo, rapido, fresco, international, giovane per i giovani, o, come si dice, per i nativi digitali… in ogni caso un sapere normalizzato, conforme a quell’idea non conflittuale della cultura quale viene proposta nel manifesto per la cultura del Sole 24 ore (per un commento al quale rimando sempre a Dantini). Che l’altra idea di cultura, quella che indugia, poco incline al risultato, talvolta tortuosa, ostile alla fitness – quella è vecchia, non fa bella figura, è anzi poco raccomandabile: fa una brutta fine, come quella francese (“essignoramia, non ha visto che fine ha fatto la cultura francese dopo gli anni 80?”, si mormora in paese). Per quest’affare che respira a fatica, meglio staccare i tubi. Quando tutto manca, una dose letale. Cicuta. In fondo i filosofi – ma anche i normali studiosi di filosofia – sanno che roba è.

    • Ho letto tutto d’un fiato i commenti che si sono succeduti e ho tratto alcune piccole impressioni che vorrei esprimere.
      1 – Che i filosofi teoretici non vengano letti da nessuno non è imputabile di per sé alla cattiva qualità della loro ricerca filosofica (lasciamo perdere le questioni di classificazioni disciplinari, perché le osservazioni di Guala mi sembrano in merito un po’ superficiali), ma al semplice fatto che non hanno mai pensato di internazionalizzare la propria ricerca, innanzi tutto scrivendo e producendo riviste in lingua inglese, dotate di peer review e quant’altro. La mia piccola esperienza di lettore di articoli filosofici in italiano e in inglese su diversi argomenti (specie di storia della filosofia scientifica) mi ha fatto constatare che assai spesso gli articoli di autori italiani non hanno nulla da invidiare a quelli pubblicati su riviste prestigiose in inglese: sono spesso più acuti, approfonditi e sottili. Ma sono scritti in italiano. E nessun studioso extraitaliano si sognerebbe di leggere mai un articolo italiano che tratta di un argomento non appartenente alla specifica tradizione italica. E allora, invece di invitare gentilmente i filosofi teoretici (o altre razze consimili) ad estinguersi e per far ciò buttare milioni di euro in processi di valutazione assai dubbi (per tutto quanto è stato detto da Roars), perché non si finanziano progetti di traduzione, non si stanziano fondi per essi e le università non approntano servizi di traduzione al servizio degli studiosi, incoraggiando la stampa e diffusione delle riviste in lingue inglese? In altri paesi consapevoli della propria minorità linguistica (come ad es. la Polonia) è da decenni che viene portata avanti questa politica e gli effetti si vedono (basta vedere quanto sono i filosofi polacchi citati internazionalmente rispetto a quelli italiani). Ma questo discorso vale ovviamente per molte altre discipline.

      2 – Se dovesse essere sistematicamente applicato il criterio del successo (bibliografico e/o applicativo) nessuna nuova scoperta sarebbe mai stata fatta. Guala, che appartiene alla eletta categoria dei filosofi della scienza, di ciò dovrebbe saperne qualcosa, visto che è uno degli argomenti più dibattuti nella sua disciplina negli ultimi trent’anni. Di solito sono giudicati ottimi articoli quelli che coincidono con le idee degli studiosi anziani che detengono nelle mani il potere delle riviste e che fanno peer review. Se non viene lasciato un certo margine di libertà alla ricerca gratuita e fuori delle regole, agli irregolari, a coloro che non pubblicano per due anni e poi escono con un articolo di tre pagine che cambia l’assetto di una disciplina, se non si permette ai Wittgenstein di fare lezione a quattro gatti senza nulla pubblicare per tutta la sua vita (dopo la prima opera), sulla base della sola fiducia verso di lui nutrita da Russell (ma sono a decine questi esempi); se non si accetta un necessario “spreco” di risorse, nessun effettivo avanzamento ci sarebbe in nessuna disciplina scientifica. Ogni saggio policy maker dovrebbe sapere che ogni 100 euro investiti in ricerca, almeno la metà sono sprecati. Invito a leggere in merito J. Diamond, Armi acciaio a malattie, pp. 191 e ss. e M. Cini, Il Supermarket di Prometeo, pp. 211-2. Ma per i curiosi posso moltiplicare le indicazioni.

      3 – Un effetto almeno sta avendo questo dibattito su indici bibliometrici e ranking di riviste: si sta dimenticando che l’università non è solo il luogo in cui si fa ricerca eccellente, ma dove si fa anche didattica, si prepara per le professioni indispensabili a una società civile (qualcuno non ha mai sentito dire di casi in cui bravissimi insegnanti sono pessimi ricercatori o viceversa?), si fornisce una coscienza civile e critica alle nuove generazione, si trasmette cultura e tradizione, si edifica il senso e l’identità di un popolo, si consolida il tessuto civile e umano di una nazione ecc. ecc. Come valutare tutte queste altre sue funzioni? solo in base alla peer review che tre revisori faranno di tre articoli pubblicati dai suoi ricercatori negli ultimi cinque anni? E tutto ciò per distribuire il 20% di un FFO ordinario già decurtato negli anni (si badi non un 20% aggiuntivo rispetto all’attuale FFO)? E con ciò si vogliono far morire istituzioni storiche in territori fondamentali in base ai capricci e alle inesattezze di criteri stabiliti chissà come e magari in modo inesatto? Non si potrebbe per cortesia vedere il problema dell’università in modo un po’ più complessivo di quanto non si stia facendo con lo scrutare attraverso il buco della serratura del VQR? Penso che sia indispensabile avviare un dibattito anche su questi aspetti, non per dire che la valutazione della qualità della ricerca sia inutile, ma per darle il giusto peso all’interno di una visione più ampia e completa del posto della ricerca e dell’università nelle società contemporanee. Quella visione più ampia che i teorici della società della conoscenza hanno da tempo avviato e che in Italia, magari, scopriremo tra qualche anno, quando il confine sarà spostato altrove. E così andiamo sempre ad inseguire le pratiche che altrove stanno abbandonando, sempre in ritardo con la storia, sempre in affanno e raffazzonando ciò che altrove ha avuto il tempo di ben sedimentare.

    • Credo che molti filosofi (teoreti) siano interessati a discutere di filosofia teoretica. Dunque non possiamo che ringraziare per l’attenzione. Penso tuttavia che questo mettere in causa la filosofia teoretica sia gravemente fuorviante, e spiego perché. La Società Italiana di Filosofia Teoretica ha rifiutato di partecipare ad un processo di ranking di riviste che, nei modi e nei tempi, è fortemente criticabile. Ha fatto però una controproposta, che coincide con quanto fa ora la ERA (che non risulta composta da filosofi teoreti), ossia, come ha ricordato Banfi, “un elenco che discrimina fra riviste scientifiche (le cui pubblicazioni sono valutabili) e non scientifiche (le cui pubblicazioni non sono valutabili)”. La SIFIT ha argomentato la controproposta con ragioni che si sovrappongono per molti aspetti con quelle di Banfi e di Baccini (nella sua pars destruens), che non risultano essere filosofi teoreti. Incentrare dunque la discussione sulla pretesa poca internazionalizzazione di filosofi teoreti che nessuno legge e di loro riviste poco internazionali (aspetterei dati su entrambe le cose, e avrei nomi e dati per contestare queste “verità”, ma appunto vorrei lasciar perdere) mi sembra come parlare dei calzini turchesi del giudice, invece che delle sue sentenze e loro motivazioni. Non è l’intento di vuole legittimamente discutere anche della teoretica, ma è l’effetto che fa.

      Io mi chiederei forse perché su più di 20 “Società e Consulte” in area 11 (che il documento GEV 11 appena pubblicato in curioso omaggio alla trasparenza non dice quali siano), in presenza di almeno dubbi e criticità noti e discussi proprio anzitutto all’estero, solo una abbia avanzato appunto dubbi e documentate riserve. Non sto cercando calzini turchesi, sia chiaro. Credo che ciò sia (o non sia) avvenuto per poca attenzione e poca informazione – poca internazionalizzazione? – su questi temi, temi che molti hanno solo “subito”, lasciandosi dire all’ANVUR e dai GEV quanto tutto ciò sia meravigliosamente internazionale, mentre è un “inseguire le pratiche che altrove stanno abbandonando, sempre in ritardo con la storia”, come ben dice Coniglione . E’ perciò importante che la discussione, che meritoriamente roars sta avviando e stimolando, prosegua, e non solo sui GEV e sulle liste di riviste, ma sulla valutazione in generale e sulle questioni (teoriche, perché no) di fondo che Valeria Pinto ha ben ricordato, così come sulle questione più complessive che giustamente richiama Coniglione, di cui è davvero opportuno non dimenticarsi.

  13. In relazione al punto tre di Coniglione e accodandomi alla CICUTA, citata dalla Pinto, che ogni giorno in un ambito o nell´altro della cultura siamo COSTTRETTI a sopportare, propongo un´altro esempio di CULTURA al MASSACRO e senza trattare i ranking (perdonatemi!), almeno che non si vogliano introdurre anche per il teatro (spero che l´idea non venga presa seriamente da qualche iper fanatico dei ranking e delle liste)! E di certo con questo non si vuole intimare a nessuno di prepararsi meglio all´esame ma semplicemente di riflettere e prendere decisioni in relazione a una visione realistica, completa e sensata di ciò su cui si va ad agire con determinati comportamenti o scelte. La monodirezionalità di pensiero non ha mai condotto da nessuna parte (credo però spesso nei burroni!).

    http://www.youtube.com/watch?v=Rn2GJ9pXBcA&feature=related

  14. Per spostare il discorso su questioni più concrete, mi interesserebbe sapere la vostra opinione sui ranking usciti ieri. Personalmente sono perplesso dalla decisione di fare ranking separati per riviste italiane e straniere. E’ chiaro che si tratta di un compromesso: referaggio “leggero” per i lavori usciti su riviste straniere in fascia A, più approfondito per gli altri, ma di fatto ha vinto chi sostiene ancora che esistano due campi di gioco separati. (Che nel mio campo – filosofia della scienza – sicuramente non è vero.)
    Nel mio settore non risulta un affollamento di riviste italiche in fascia A, per fortuna, ma senz’altro le due riviste inserite (Epistemologia e Humana.Mente) sono parecchio lontane dai livelli di qualità e rigore selettivo delle riviste straniere in fascia B (per non parlare di A). Non mi sembra tragico, ma ovviamente avrà come conseguenza di caricare di responsabilità i referee e i membri del GEV qualora dovranno aggiudicare casi controversi (tipo articolo giudicato B o C, ma pubblicato su rivista italica di fascia A — supponendo che i referee siano seri e che quindi emergano molti casi del genere).
    Non mi sembra che ci siano dimenticanze clamorose nei ranking di M-FIL02, ma non ho ancora fatto un’analisi approfondita.
    Nelle vostre discipline come sono andate le cose?

  15. Per la mia area (12) le liste escono domani. A naso suppongo non conterranno quasi nessuna rivista straniera (non commento).
    Per il mio settore sono molto curioso visto che i 2 gev di ius 18 si sono dimessi, sa dio chi diavolo avrà fatto le classifiche. So solo che per le riviste giuridiche hanno deciso a priori che le online non possono essere mai A. Chissà perché poi, lo sa Iddio.

  16. Guala scrive: “è inutile e deleterio finanziare ricerca che nessuno legge”: ancora una volta (ho già commentato suoi interventi) soprappone giudizi di valore su questa o quella disciplina, con il tema della valutazione. E sovrappone il tema della conoscenza con quello della pubblicità della conoscenza stessa. Anche altri interventi (mi scuso per non richiamare i nomi) sovrappongono poi altre questioni: il tema della valutazione con quello della struttura “corporativa” dell’università; cercando di utilizzare la valutazione come strumento per riformare o scalzare quella struttura corporativa. In primo luogo osservo che, alla fine, si tratta sempre e comunque (cioè a prescindere dei metri di giudizi utilizzati, o, in altri termini, dalle formule concorsuali) di una cooptazione; in secondo luogo osservo che per parlare di corporazione e cooptazione allora bisogna fare un discorso serio sulla struttura di potere universitaria. Accavallare i due problemi a mio giudizio nasconde solo scorciatoie… fatte in nome di altrettante corporazioni. Il fatto che una corporazione sia italica, invece che americana, non garantisce affatto che si tratti di una corporazione migliore. C’è poi un curiosissimo utilizzo del termine “internazionale” o “internazionalizzazione”: chiunque, in qualsiasi paese e utilizzando una qualsiasi lingua, sia sulla “frontiera” di una particolare branca della conoscenza è “internazionale”: altro problema è poi far conoscere al mondo quello che ha scritto; ma sarebbe davvero imperdonabile pensare che poiché utilizza un linguaggio che pochi conoscono o leggono allora i suoi risultati non sono conoscenza! A proposito di internazionalizzazione voglio poi osservare che chiunque voglia occuparsi di un problema “nazionale” – e con questo termine intendo un problema circoscritto (comunale, regionale, nazionale, locale, oppure biografico, o etnico e via discorrendo, secondo altrettante precise “individualità”), beh non può assolutamente fare a meno di conoscere i codici, anche linguistici, di quella comunità: o mi si vuole sostenere che per scrivere di letteratura italiana (o inglese ecc.) si può NON conoscere l’italiano (o l’inglese ecc.)? D’altra parte potremmo fare diversi casi dove la valenza internazionale di un ragionamento NON è affatto dipesa dal linguaggio in cui è stata espressa: per le scienze umane gli esempi… si sovrappongono alle scienze umane stesse, direi! O aspettiamo la traduzione (censurata) in americano per scrivere di e su Dante? O che non studiamo Gramsci – uno degli autori italiani più studiati al mondo! – perché, poveretto, non ha pubblicato le sue riflessioni e quando le ha pubblicate le scriveva su un giornaletto?
    In conclusione, condivido pienamente i ragionamenti di Banfi. I ragionamenti di Guala, invece, sono condivisibili solo e soltanto in quanto mettono a fuoco alcune problematiche reali, quali, in ultima analisi, la struttura di potere universitaria; ma sono poi molto ambigui perché o cercano scorciatoie inadeguate (utilizzare la valutazione per riformare una struttura di potere: forse primo caso nella storia!: ma viviamo un tempo in cui termini come “riforme”, “giustizia”, “meritocrazia” sono utilizzati per realizzare provvedimenti seccamente conservatori, ingiusti e corporativi o di classe), o perché, invece, sottendono precise strategie di potere: le quali si articolano non solo per corporazioni nazionali, avendo come fine il potere nazionale, ma anche, e oggi soprattutto, per corporazioni sovra-nazionali, avendo come fine il potere sovra-nazionale. O si pensa davvero che l’attuale internazionalizzazione, che poi altro non è che una delle facce dell’attuale globalizzazione, non sottenda alcun equilibrio geopolitico, che si gioca anche sul piano della produzione della conoscenza e delle classi dirigenti (che dovrebbero transitare per l’università, come formazione)? Se anche così fosse, è davvero paradossale che proprio mentre un CERTO tipo di globalizzazione sta mostrando le corde (crisi mondiale senza precedenti), si guardi a modello in sostanza proprio questo certo tipo di globalizzazione.
    cari saluti
    Luca Michelini

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.