Classifiche internazionali

Ranking a go-go e promemoria per il nuovo ministro

Ritorniamo sulla questione dei ranking internazionali delle università spinti da due nuovi eventi vicini e da due più lontani (dei quali non avevamo dato notizia). I due eventi vicini sono la pubblicazione dell’ultimo ranking approntato dall’università di Leida e quella del nuovo rapporto scritto da Andrejs Rauhvargers per conto della European University Association, entrambi del mese di aprile. Gli eventi più lontani sono la pubblicazione del Times Higher Education World University Ranking e del Quacquarelli Symonds World University Rankings relativo agli anni 2012-13.

 

1. Molti, troppi caveat per essere una cosa seria

I motivi per i quali non avevamo dato notizia dei due ranking più lontani nel tempo sono stati fondamentalmente dovuti alle forti riserve critiche che nel contempo abbiamo maturato su questi strumenti di valutazione. E tali nostre perplessità vengono in sostanza ribadite dal rapporto di Rauhvargers, poco sopra menzionato. Si evidenzia in esso, ad es.,  come sia difficile comparare le discipline scientifiche (medicina, scienze naturali, ingegneria e computer science) con quelle di tipo umanistico, e ciò a causa delle limitazioni delle basi dati maggiormente utilizzate, ovvero quelle fornite dalla Thomson Reuters e dalla Elsevier; sicché le “arts and humanities” e gran parte delle scienze sociali sono in essi sottorappresentate, a causa di «persistent biases that remain in bibliometric indicators and field-normalised citation reports, despite substantial methodologica improvements. This means that citation impact is still determined more reliably through indicators that measure the proportion of articles in intensively cited journals, and thus favours those fields in which these articles are concentrated, namely medicine, natural sciences and engineering. These constitute the most prominent fields in the Thomson Reuters and Elsevier databases and therefore determine, to a large degree, performance in the global rankings. In the arts, humanities and the social sciences published research output is concentrated in books. Until providers tackle the problem of measuring book publication citations impact, this bias in subject focus is unlikely to be overcome» (p. 18-9). Per non parlare del fatto che l’inglese è la lingua privilegiata, per cui gli articoli in altre lingue sfuggono alla valutazione di qualità on quanto sono pochissimi a leggerli e quindi a citarli: «The result is that the non-English-language output […] has a lower citation impact and thus a lower position in the rankings» (p. 19). Ad es. il CTTS Leiden Ranking esclude dalla propria valutazione gli articoli non scritti in inglese.

Si sottolinea inoltre come in alcuni ranking non sono spiegati i modi in cui vengono applicati i criteri enunciati (è il caso del QS ranking) o addirittura non è fornita alcuna informazione sul come sono selezionate le università da sottoporre a valutazione (come avviene col celebrato THEWUR – per questa e altre sigle vedi la tabella 1); insomma, come recita il titolo del paragrafo: “Superficial descriptions of methodology and poor indications”. A ciò si associa il fatto che alcuni dei criteri utilizzati (come la reputazione tra pari, il numero dei premi Nobel) finiscono di per sé per favorire solo un limitato numero di università di élite. Un effetto simile hanno anche altri indicatori come il numero di articoli pubblicati in Science and Nature e il numero di ricercatori più citati, che si basa su un complesso di soli 5.500 ricercatori nel mondo, e così via. Infine si fa notare come le posizione elevate ottenute nei ranking da un piccolo gruppo di università hanno la caratteristica di essere spesso autoperpetuantesi, specie quando si fa uso di criteri come la reputazione. Insomma, una volta raggiunti i piani alti, si comincia a vivere di rendita.

Ma ci sono anche rischi di fondo che vengono presi in esame e dei quali si sono resi conto persino chi produce i data base, come la Thomson Reuters o Elsevier: le istituzioni sono incoraggiate a concentrarsi maggiormente sulle comparazioni numeriche piuttosto che sull’educazione dei giovani o addirittura a favorire la manipolazione dei dati per migliorare la propria posizione, come è già avvenuto ed è stato denunciato in certi casi clamorosi. Come aggiunge l’autore v’è anche «a strong risk that in trying to improve their position in the rankings, universities are tempted to enhance their performance only in those areas that can be measured by ranking indicators. […] global rankings tend to favour the development or reinforcement of stratified systems revolving around so-called“world-class universities”thus also encouraging a“reputation race”in the higher education sector. […] As far as the system level is concerned, it has been observed that world-class institutions may be funded at the expense of institutions that further other national goals, with all the challenges that this represents for system-level development. There is a risk that they become more divided, segmented, and hierarchical, with the emergence of a second tier of more teaching-oriented universities. A move in this direction would mean research will come to outweigh teaching activities and there may also be an imbalance between academic fields. Among the dangers inherent in such developments, pointed out by various commentators, it is of particular concern that without specific policies and incentives to promote and protect institutional diversity, the premium placed on global research rankings may result in the development of more uniform and mainly vertically differentiated systems» (p. 22).

A queste riserve avanzate dal rapporto di Rauhvargers si potrebbero aggiungere le tante analisi che nel contempo sono state fatte sui limiti e l’attendibilità di tali ranking complessivi sulle università e che hanno portato a casi clamorosi come ad es. quello del THEWUR che nel 2010 aveva collocato l’università di Alessandria d’Egitto al quarto posto nel mondo per Impact Factor (ma vedi in merito l’articolo di G. De Nicolao sui “Numeri tossici che minacciano la scienza”). Sempre su questo ranking, sono stati sollevati molti dubbi sul modo in cui sono metodologicamente calcolati i suoi indicatori, sulla loro reciproca correlazione e su molte altre cose (un esempio abbastanza devastante di analisi di uno dei ranking qui censiti, quello di Shanghai, è dato dall’articolo di Billout et al.). Notizie in merito possono essere trovate su University Ranking Watch, un blog curato da Richard Holmes «devoted to the analysis and discussion of university rankings and other topics related to the quality of higher education», che appunto mostra quanto poco siano affidabili questi ranking e quanta attenzione bisogna fare per non utilizzarli incautamente.

Insomma sono tanti e tali i caveat – per non parlare dei limiti intrinseci dei vari indicatori utilizzati, specie quelli bibliometrici, denunziati da una vasta letteratura e sui quali già più volte su Roars abbiamo attirato l’attenzione – che è necessario prendere con grande cautela quanto ci viene mostrato in questi ranking. E tuttavia è assai diffusa, specie in Italia, una loro spregiudicata e acritica utilizzazione da parte di qualche università italiana per vantare la propria eccellenza o di qualche politico o pubblicista per denigrare in generale la scarsa performance del sistema accademico italiano e quindi giustificare la necessità di “affamare la bestia”; si ritiene che tale opportuna cura dimagrante possa far rinascere a nuova vita l’università italiana, fatta di sobrietà ed eccellenza qualitativa. Inutile ricordare i guasti causati da tale modo miope di vedere, di cui l’Anvur è l’esempio più evidente. Aggiungiamo che non bisogna neanche trascurare il fatto che di solito i ranking presi in considerazione si fermano alle prime 500 università, che rappresentano una piccola percentuale delle circa 20.000 università del mondo (sono più di 21.000 quelle i cui siti sono stati censiti dal WRWU), per cui entrare a far parte di esse significa fare parte del club abbastanza esclusivo delle top 2,5% università (v. le slide #19-20 dell’intervento pubblicato ieri di De Nicolao). Ne segue la fallacia di ritenere la distanza tra il 100-esimo e il 150-esimo un abisso, mentre in effetti essa è estremamente piccola se considerata nell’ammontare totale; per cui essere 300-esimi o 100-esimi è una differenziazione entro un club già esclusivo. Non è che la 300-esima università sia a livello del Burkina Faso, come molti invece pare ritengono.

 

2. A che serve dunque discuterne?

Eppure, pur con queste cautele, è possibile fare dei discorsi sensati a partire da essi? Forse è possibile se si adotta un’ottica di sistema, piuttosto che guardare alla performance di questo o quell’ateneo, e inoltre si cerca di valutare nel loro complesso i ranking a disposizione. E in ogni caso, visto che di essi si fa in Italia un uso terroristico, allora il vedere che cosa effettivamente essi dicono – anche a volerli prendere sul serio – potrebbe avere il senso di ridimensionare le conclusioni che se ne traggono e a ricondurre nelle giuste proporzioni le polemiche e le discussioni che certamente saranno riproposte in un prossimo futuro. E ciò potrebbe servire anche come promemoria e memento del nuovo ministro.

A tale fine, traendo spunto dai ranking recentemente pubblicati, abbiamo innanzi tutto proceduto ad aggiornare la tabella a suo tempo pubblicata su questo sito, in cui sono sintetizzati i risultati delle università italiane secondo le più importanti classificazioni; alle nove già da noi a suo tempo inventariate, abbiamo aggiunto anche il ranking della Scimago. Le caratteristiche e le modalità con cui questi dieci ranking sono composti sono sintetizzati bella Tabella 1/a e 1/b. Invece i risultati complessivi, con le posizioni delle diverse università italiane, sono forniti dalla Tabella 2.

Per quanto riguarda i diversi ranking, è necessario distinguere quelli che valutano prevalentemente la qualità della ricerca scientifica, e quindi l’eccellenza di docenti e ricercatori, e quelli che invece prendono in considerazione anche altri fattori (come le possibilità di impiego, il rapporto docenti/studenti, i rapporti con le industrie, i premi Nobel o le Field Medal, i guadagni degli ex studenti e così via). E poi, alcuni di questi si basano sul metodo dei questionari, ovvero sull’opinione di esperti ed ex studenti, altri invece su indici obiettivi di carattere bibliometrico (Impact Factor, numero di pubblicazioni, H-Index e così via) o statistico (finanziamenti ricevuti ecc.). Ad es. il QSWUR 2012, pubblicato nel settembre passato e che ha fatto titolare i giornali sull’unica università italiana (quella di Bologna) tra le prime 200 al mondo (indietreggiando addirittura di 11 posizioni rispetto al 2011!) è un ranking misto che prende in considerazione sei indicatori, di cui solo uno concerne la qualità della ricerca scientifica su basi bibliometriche. Se consideriamo gli altri indicatori (la peer review da parte di altri docenti, la valutazione da parte dei dipendenti, il rapporto studenti/docenti, l’attrattività internazionale per studenti e per facoltà) è facile capire perché le università italiane non si collochino ai primi posti; e ciò non ha nulla a che fare con la loro produttività o qualità scientifica. Eppure questo necessario chiarimento è per lo più assente negli organi di stampa che ne danno notizia.

Se invece concentriamo la nostra attenzione sulla qualità della ricerca e dei docenti – ed è di solito ciò che viene messo in luce nel dibattito italiano, senza però avvertire che le classifiche utilizzate in effetti non valutano solo questa ma anche altri fattori –, vediamo che i ranking che privilegiano in misura maggiore o esclusiva questo aspetto sulla base di dati bibliometrici (a cui oggi in molti sono affezionati, in primo luogo l’Anvur) sono l’NTU Ranking, quello della Scimago, il CWTS Leiden Ranking e l’URAP.

In particolare, in quello più affidabile e completo, cioè l’NTU, se l’Italia non ha università tra le prime 50 e quindi non appartiene alla élite delle nazioni (composta solo da 11 membri: Stati Uniti, Germania, Gran Bretagna, Giappone, Canada, Francia, Olanda, Svezia, Australia, Svizzera e Danimarca) e piazza solo un’università tra le prime 100 (nel 2009 ne piazzava 2), nel complesso – cioè tenendo conto del numero di istituzioni che si piazzano tra le prime 500 università censite – il suo quarto posto non è da disprezzare (vedi tabella 3).

Ciò significa che – se sono attendibili questi dati, un caveat che dobbiamo sempre tener presente – per le università italiane può esser fatto lo stesso discorso che nel 1999 ha portato l’Onu a classificare il sistema sanitario italiano come il secondo migliore al mondo: risultato che desta stupore quando si abbia davanti agli occhi il degrado di certi reparti ospedalieri, ma che diventa plausibile se si tiene conto della sua copertura media sulla popolazione e non solo dei centri di eccellenza scientifica. E così il nostro sistema universitario è complessivamente di buon livello, nel senso che esso assicura una qualità media diffusa sul territorio senza molti picchi ma anche senza molte deficienze gravi. Ed inoltre il numero di università su tale medio livello è considerevole, visto che ci posiziona come il quarto paese al mondo per numero di università che rientrano tra le prime 500 (ben 27). E in considerazione del fatto che abbiamo pochi atenei, la percentuali di essi che entra nelle varie classifiche è alta, come dimostra la slide #31 del seguente link. Tale risultato viene anche nella sostanza confermato dalla distribuzione per paese delle prime 500 istituzioni educative su 3.290 dei dati Scimago (comprendenti non solo le università, ma anche centri di ricerca governativi, ospedali e altro): l’Italia occupa il 6° posto con 21 istituzioni, essendo preceduta solo da USA, Cina, Germania, Gran Bretagna e Francia; e ciò tenendo conto che si deve confrontare con colossi mondiali della ricerca che annoverano un numero molto più alto di istituzioni di ricerca di quanto non abbia l’Italia.

Anche le classifiche predisposte dalla Scimago concernenti la collocazione delle varie nazioni in base a diversi parametri, tra i quali l’H-Index (che è stato posto alla base dei criteri per l’abilitazione scientifica nazionale da parte dell’Anvur, sia pur modificandolo in modo discutibile), confermano quanto prima detto, posizionando l’Italia rispettivamente al 17° e al 7° posto tra le nazioni più industrializzate al mondo (vedi tabelle qui sotto – entrambi i valori sono quelli delle nazioni con più di 100.000 documenti, che sono in tutto 37).

 

E se prendiamo i valori forniti dalla Thomson Reuters (una delle basi di dati utilizzate dall’Anvur per calcolare le mediane, cioè i valori che aprirebbero le porte alla progressione di carriera), vediamo che l’Italia occupa l’8° posto per numero di articoli ogni 1000 ricercatori accademici e avrebbe addirittura il 3° per articoli ogni 1000 ricercatori (tutti, e non solo quelli delle università); tuttavia quest’ultimo dato non può ritenersi attendibile visto il bassissimo numero di ricercatori nelle imprese (vedi al link). La non infima qualità della nostra ricerca scientifica è ulteriormente attestata da una ricerca dell’Oecd del 2010 la quale poneva l’Italia al 7° posto nella particolare classifica dell’1% degli articoli più citati, superando così paesi come il Giappone, l’Australia, la Svizzera ecc., che di solito nei ranking generali sulle università ci precedono (vedi al relativo link – ma vedi anche quanto detto nell’intervento pubblicato ieri da De Nicolao, slides #21-26).

 

3. L’ultimo arrivato: il ranking dell’università di Leida

Ma veniamo al recentemente pubblicato CWTS Leiden Ranking. Esso è ritenuto tra quelli più attendibili e si caratterizza per evitare di costruire un indice sintetico che assembli con un peso proporzionale i diversi parametri usati, che sono 4 indicatori di impatto e 6 indicatori di collaborazione (specificati nelle note alla Tabella 6).

Nella tabella da noi costruita vengono forniti i due più significati indicatori di ciascuna tipologia. Ad una visione complessiva salta agli occhi come le università italiane si collochino tutte nella parte medio bassa della classifica; tuttavia vale qui ancora l’avvertenza prima fatta sul fatto che ci stiamo muovendo sempre all’interno del top 5% mondiale. Inoltre il fatto che l’Italia sia al 5° posto per numero di università indicizzate (dopo USA, Germania, Cina e UK), conferma quanto prima detto a proposito della buona qualità media del sistema universitario, che tuttavia è privo di punte di eccellenza. È da notare l’enorme progresso effettuato dalla Cina, che è ora presente con ben 37 università (di cui due posizionate al 53° e 55° posto), con ciò venendo premiato lo sforzo da essa effettuato con un programma di massicci investimenti dell’ultimo decennio.

Ma un altro significativo dato è da notare in questa classifica. Quando infatti si disaggregano i campi disciplinari, si nota che vi sono università italiane che riescono a raggiungere la tanto lodata eccellenza: notiamo così che in “Mathematics and computer science” Parma è al 37° posto e Pavia all’87°; e vi sono altre università che pur ottenendo un mediocre risultato nel valore aggregato di tutte le discipline, migliorano decisamente in alcuni campi: è il caso di università a volte considerate marginali come Bari o Catania o di altre dotate di maggior prestigio che migliorano in certi ambiti scientifici la propria mediocre prestazione complessiva, come Padova, Perugia, Trieste e così via. Del resto questa caratteristica viene confermata se si esaminano i dati disaggregati di altri ranking, come ad es. il NTU. Entrambi mostrano però un trend comune, ovvero la relativa debolezza dell’Italia nel campo delle scienze umane rispetto agli altri paesi presenti in classifica. Essa potrebbe essere dovuta in sostanza a due motivi. Innanzi tutto alle basi dati utilizzate, che privilegiano articoli su riviste in inglese e trascurano di prendere in esame le monografie; come abbiamo visto è questo un limite denunziato anche dal rapporto di  Rauhvargers. Ma anche, in secondo luogo, alla campagna denigratoria ormai in corso da più di un decennio fatta nei loro confronti da una sorta di plebeismo culturale, per il quale tali forme di ricerca non danno “da mangiare” e non stimolerebbero il progresso scientifico ed economico, con la conseguenza del deinvestimento in esse e il deperire di interi ambiti disciplinari, che vengono a morire con l’andata in pensione dei residui loro cultori. Una tale concezione non solo va contro ogni seria valutazione dell’importanza di tali discipline per la stessa ricerca scientifica (e sarebbe qui tedioso e troppo lungo portare argomenti in merito, che ogni serio scienziati ben conosce), ma trascura la fondamentale funzione che l’istruzione universitaria (e non solo essa) deve adempiere per la preparazione e la formazione culturale dei cittadini, se non ci si vuole poi lamentare della “perdita dei valori”, dell’inciviltà dei comportamenti, dello scadente “capitale umano” e così via. Di certo i valori non si apprendono imparando a progettare microcircuiti.

 

4. Uno sguardo complessivo e aggregato

Ma il quadro che emerge da questi ultimi ranking evidenzia soprattutto come sia sbagliato parlare di università in generale, ritenendo che vi siano università di eccellenza ed altre di serie B; per il modo in cui si è storicamente venuto a strutturare il sistema universitario italiano, vi sono in ogni università settori di eccellenza e settori mediocri, per cui è necessario valutare attentamente ciascuna specifica situazione senza giudizi totalizzanti o, peggio, predisponendo politiche che non tengano conto di questa sua peculiare caratteristica.

Osserviamo infine anche come tutte le università italiane presenti nei ranking internazionali qui esaminati siano statali: ad eccezione della Cattolica di Milano e della Bocconi (che è però presente in una classifica molto specializzata, come quella dell’IPCHEI e in quella Scimago, tra tutte la più generosa verso le università italiane – sulla Bocconi vedi l’articolo già pubblicato su Roars), nessuna delle prestigiose università private che sono sorte negli ultimi anni o sono preesistenti (come LUISS, IULM, San Raffaele ecc.), viene menzionata nei ranking internazionali tra le prime 500. Altra eccezione è rappresentata dalla Università Vita-Salute del San Raffaele che è al 489° posto nel solo ranking Scimago per impatto normalizzato (per questo non l’abbiamo inclusa nella figura 2) ed è quindi la prima delle alte istituzioni educative italiane; in questo caso incide fortemente l’alta specializzazione specie in campo medico (ha un indice di 0,9, diversamente dalle università generaliste, che oscillano tra 0,5 e 0,6 in un range 0-1). In ogni caso – a voler credere a tali ranking, così come molti fanno – è degno di nota il fatto che tutte le università statali bibliometricamente misurabili (l’Orientale di Napoli per es. non lo è) rientrano nelle top 2.800 mondiali censite dalla SCImago (il top 14% dei circa 20.000 atenei mondiali – vedi i link 1 [slide 33], link 2 e link 3). Se volessimo stilare una classifica delle “migliori” università italiane in base alla performance ottenute nei dieci ranking da noi presi in esame, noteremo che sono in tutto 33 le università che ottengono almeno due collocazioni utili (abbiamo eliminato il caso di una sola collocazione, in quanto il dato ci sembra poco significativo), nell’ordine discendente esibito dalla figura 2. Se si vuole partire per una riqualificazione del sistema universitario italiano, questo dato potrebbe rappresentare – a voler prendere sul serio i ranking –  una cocente delusione per i sostenitori del privato e i denigratori del sistema pubblico.

È ovvio che andrebbero fatte analisi più raffinate di quelle qui proposte. Ad es., un fattore di solito non preso in considerazione è il rapporto tra performance scientifica e ammontare dei finanziamenti per ricerca cioè considerare anche la qualità e la quantità della produzione scientifica in rapporto gli investimenti per ricerca, cioè ai finanziamenti ricevuti dalle università per questo scopo, misurando così la “produttività scientifica”. Ebbene da un rapporto preparato nel 2011 nel Regno Unito per il governativo Department of Business, Innovation and Skills l’Italia si posizione in maniera lusinghiera, al di sopra di USA, Francia e Giappone (vedi la qui sotto).

Inoltre un’analisi che metta a confronto le singole istituzioni universitarie di sicuro esso potrebbe riservare grosse sorprese, in quanto si vedrebbe facilmente (abbiamo fatto alcuni sondaggi in merito (vedi al link di L’Italia che affonda) che le università italiane ottengono rendimenti di gran lunga superiori ai mezzi a loro disposizione, rispetto ad es. alle università americane, sempre prese a pietra di paragone. Sicché, si potrebbe paradossalmente dire che bisogna domandarsi non tanto il perché le università italiane siano così indietro rispetto alle americane, ma come mai queste siano così poco avanti rispetto a quelle italiane. Altro aspetto scarsamente analizzato è il rapporto tra numero dei ricercatori e performance; anche in questo caso qualche indicazione l’abbiamo data nel sito indicato. Ma v’è ancora molto lavoro da fare.

 

5. Un promemoria per il nuovo ministro

In conclusione, i ranking generali sulle università e le classifiche bibliometriche più specifiche che sono elaborate da varie istituzioni internazionali sono oggetti assai complessi che devono essere utilizzati con cautela e facendo attenzione a cosa effettivamente fanno riferimento, al punto che vi è stato chi ha sostenuto in modo del tutto plausibile la loro totale inaffidabilità (per non parlare del possibile taroccamento dei dati). Non bisogna dimenticare inoltre l’incertezza statistica delle classifiche, per cui sono un po’ ridicoli quei rettori che esultano o si rattristano quando il loro ateneo guadagna o perde una decina di posizioni, dato che errori nell’ordine delle decine di posizioni sono del tutto plausibili e possono esservi notevoli discrepanza tra i diversi rankings, come è ben noto in letteratura (v. ad es. l’articolo di Saisana & D’Hombres). Ed è poi necessario aver un quadro complessivo, utilizzando diversi indicatori, e non assumere scandalisticamente quelli che fanno più comodo o per denigrare o per esaltare singole realtà. E ciò specie in un periodo in cui tali valutazioni bibliometriche sono assai discusse nella letteratura internazionale più accreditata, che ne ha messo in luce i limiti e le possibili e sicure distorsioni che possono apportare alla ricerca scientifica e alla politica della ricerca di chi si serve di esse in modo incauto. È questo un promemoria per il nuovo ministro, per incoraggiarlo ad operare senza prendere per oro colato quello che certa stampa interessata e certi opinionisti disinformati e tendenziosi vogliono far passare come uno stato di fatto indiscutibile, allo scopo di distruggere il patrimonio costituito dalle università pubbliche e statali, che in sostanza danno buona prova di sé in tutti i ranking internazionali (anche a volerli prendere per buoni) e che non hanno nulla da farsi rimproverare quanto alla qualità dei loro docenti e ricercatori rispetto alle istituzioni di insegnamento privato, che invece si vorrebbero additare a modello di eccellenza.

Alle università italiane non fa difetto la qualità del ricercatori, ma la volontà politica di sostenerle, di finanziarle adeguatamente e di fornire loro mezzi organizzativi, strumentali e scientifici che le mettano in grado di migliorare la propria reputazione e collocazione a livello mondiale. Con l’ottimismo della volontà abbiamo la speranza che il nuovo ministro voglia invertire la rotta rispetto a quanto è stato fatto in passato; ma il pessimismo della ragione ci fa pensare che i condizionamenti e le pressioni provenienti da settori poco interessati alla cultura e al ruolo che in essa può assumere l’intervento statale possano soverchiare il potere di azione di un ministro anche volenteroso.

 

Send to Kindle
Tag: , , , ,

40 Comments

  1. Paolo Gibilisco says:

    Per l’ennesima volta il più sentito grazie a tutti i redattori, collaboratori e lettori di ROARS per aver riportato il dibattito sull’università italiana nell’alveo che gli compete.

  2. informatico says:

    C’è qualcosa che non va nella Tabella 3. La descrizione è: “Si prendono in considerazione solo le università che hanno università posizionate tra le prime 100.” che di per sé non è molto chiaro, inoltre la Spagna non risulta tra le prime 100 in nessuna classifica secondo la tabella stessa…

    • Giuseppe De Nicolao says:

      Credo sia un refuso e che 100 vada sosituito con 500. Provvediamo a correggere appena possibile.

  3. Ringrazio per la segnalazione del refuso. In effetti la dicitura è corretta (a parte l’errore di università per nazioni): ad essere sbagliato era stato il fatto che avevo dimenticato di eliminare la Spagna.

  4. Io non credo ai “rankings” se non altro perché è impossibile rappresentare su una retta un fenomeno che dipende da decine e decine di parametri. Tuttavia chi crede nei “rankings” dovrebbe chiedersi se bisogna lavorare perché almeno una università statale italiana appaia tra le prime cinquanta o perché tutte le università italiane appaiano tra le prime cinquecento. La risposta a questo quesito qualifica le possibili politiche per l’istruzione universitaria.

    • Neanche io. Ma come spesso si dice: chi di ranking ferisce, di ranking perisce. E così, anche a volerli prendere sul serio, si può vedere che essi non stanno a dimostrare quanto alcuni invece sostengono.

  5. Trilussa a grande carica!!!

  6. Enrico Marsili says:

    “Di certo i valori non si apprendono imparando a progettare microcircuiti.”

    Sono d`accordo, i valori vanno insegnati agli adolescenti nelle scuole, non all`universita`, quando si e` gia` irrimediabilmente adulti.

    Per quanto riguarda gli umanisti, non contesto l` importanza in se` dell`educazione umanistica, ma il fatto che si formino troppi laureati e pseudoricercatori in queste materie, che dovrebbero essere riservate ad un elite di cervelli. Progettare microcircuiti e bioreattori serve a portare avanti la societa` come la conosciamo oggi. Produrre migliaia di laureati inutili in SDC e altre amene facolta` drena risorse e illude i nuovi adulti che ci siano effettive possibilita` di carriera e crescita in questi campi.

  7. indrani maitravaruni says:

    Sono esattamente le argomentazioni usate dal mainstream per affossare gli studi umanistici. L’idea che l’umanesimo non serva a portare avanti è funzionale alla costruzione di un uomo poco pensante, che si intrattiene con i centri commerciali e i balocchi tecnologici.
    Sul fecondissimo rapporto fra umanesimo e scienze “dure” consiglio la lettura dell’eccellente libro di Lucio Russo La Rivoluzione dimenticata, Feltrinelli, 1996 (III ed. ampliata 2003).
    Lucio Russo è uno dei più lucidi e intelligenti analisti dell’odierna crisi del sapere.

    • Mah, ormai quasi tutto e’ intrattenimento. Non vedo grosse distinzioni tra cultura umanistica e scientifica su questo fronte.

      In cosa consisterebbe questa “odierna “crisi del sapere”?

      A me sembra che oggi si sappiano molte piu’ cose del pasato. E non solo il COME ma anche il PERCHE’. Certo, moltissime cose ancora non le sappiamo, ma ci sono progressi straordinari
      (NON solo tecnologici) ogni giorno.
      Sapere sempre di piu’ su come e perche’ funziona una cellula, il cervello, il corpo umano, un insieme di api, un nucleo atomico, eccetera, mi sembra straordinariamente bello.

    • Enrico Marsili says:

      Non cè`bisogno di affossare gli studi umanistici. Ci riescono benissimo da soli. Concordo con Luca Salasnich. Il progresso scientifico (che poi diventera`, in maniera poco prevedibile, progresso tecnologico) e`BELLO, emozionante ed eccitante.

      Un umanista si balocca con un IPAD, un ingegnere, un matematico o un fisico spesso sanno come funziona.

    • Giuseppe De Nicolao says:

      Geniale commento di Marsili che colpisce e affonda i pregiudizi beceri contro le scienze umane e sociali fingendo di impersonare la caricatura dell’ingegnere/scienziato talmente incolto da vantarsi della propria superiorità perché sa come funziona un iPad. Grazie: ridicolizzare la stupidità vale più di mille discorsi.

    • Vivi complimenti a De Nicolao per l’ironia elegantissima e proprio per questo terribile e definitiva con cui ha ridicolizzato la boria di due della ben nota categoria di quelli che gonfiano il petto perché – industri, estatici, eccitati H24 – mandano avanti verso mirifici futuri il mondo, QUESTO mondo (del resto, si sa, nella vita quasi tutto è questione di livelli di contentamento; chi è di bocca buona campa senz’altro più agevolmente).
      Solo, “peccato che l’ho sprecata con voi” potrebbe dire De Nicolao come Totò in “Signori si nasce”; infatti, uno ha già ammesso di non averci capito nulla

    • Enrico Marsili says:

      Per citare i classici (anche se doppiati, sigh):

      Quanta poesia Mister Ciro!Lei sa usare la lingua meglio di una zoccola da venti dollari!

    • Non mi sembra di aver parlato male degli studi umanistici. Mi sembra solo di aver cercato di evidenziare come ci sono tante cose belle da fare e da scoprire.

      Veramente non capisco questa “odierna crisi del sapere”.

      E’ forse una crisi legata alla “frammentazione del sapere”?

      La frammentazione del sapere mi sembra inevitabile
      se aumenta il sapere. Cio’ non toglie che in certi casi si possano trovare delle stutture comuni in fenomeni apparentemente molto diversi. Ad esempio, le “code non Gaussiane” di cui parlano ogni tanto i ROARSiani.

      Va beh, faccio anche io il radical chic
      e cito un film americano semi-sconosciuto. Nel film “Creator” Peter O’Toole, che impersona un premio Nobel per la medicina, ritiene che esista una “visione globale” mentre un suo collega insiste che: “non c’e’ nessuna visione globale, ma solo tante visioni parziali”. Chi avra’ ragione? Alla fine del film lo si scopre…

    • @ Marsili

      Inutile intrattenersi con lei. Invece lei approfitti della gentilezza, della disponibilità e della pazienza di Coniglione che, nel suo intervento delle 19.03, cerca di farle imparare e capire qualcosa di molto importante.

      Salasnich è di altro livello: argomenta, e mira a tutt’altro che a dire la grandissima, stupefacente novità che gli umanisti si potrebbero anche serenamente gassare in massa perché, anche se campano 90 anni, non producono nemmeno un aggeggio che migliora (ahahah!!!) e/o allunga la vita (di ben 5-10 anni; il che naturalmente cambia tutto per noi!!!) e per di più pretendono anche di ricevere stipendi e di mangiare, cioè di avere diritto a vivere, loro, saprofiti della mirabile società contemporanea devota al principio dello scientifico-tecnico-economico

    • Si puo’ fare innovazione anche senza produrre strumenti tecnologici. Se si scoprono leggi fondamentali della Natura, non e’ detto che questo porti ad innovazione tecnologica. Se c’e’ l’innovazione tecnologia meglio, ma certamente non e’ mai stato il mio interesse.

      Personalmente ero indeciso tra Filosofia e Fisica, ed ho scelto Fisica perche’ mi piaceva l’idea di poter descrivere (aspetti della) realta’ con la Matematica. Cosa che continuo a ritenere “una figata pazzesca”.

  8. Enrico Marsili says:

    Non ho fatto lettere, non capisco l`ironia carpiata tripla. Pero` mi piacerebbe una risposta alle mie domande:
    1)Ha senso insegnare i valori all`universita` o si dovrebbe fare a scuola?
    2)I laureati in discipine umanistiche sono in numero adeguato per il mercato del lavoro italiano oppure no?

    Adesso torno a leggere un`appassionante analisi comparata della weltanschaung di sturm und drang nella Lapponia. O in alternativa mi dedico all`attivita`preferita degli umanisti: il solitario di windows.

    • Giuseppe De Nicolao says:

      1) Una risposta può venire da questa lecture di Martha Nussbaum: http://www.roars.it/online/martha-nussbaum-not-for-profit/

      2) L’Italia è ultima in Europa come % di laureati nella fascia 25-34 anni (http://www.roars.it/online/sorpassati-anche-dai-turchi-la-verita-sulluniversita-italiana/). Inoltre, se consideriamo gli USA e le principali nazioni europee, l’Italia è penultima come % di laureati in materie umanistiche.

      % laureati in scienze umane, arte e istruzione

      22,3% Italia
      19,1% Francia
      31,0% Germania
      24,2% NL
      23,8% Spagna
      27,4% UK
      28,6% US

      Fonte: “Malata e denigrata : l’universita italiana a confronto con l’Europa”, p. 64
      (a cura di M. Regini, Roma, Donzelli 2009)

      Che il mercato del lavoro italiano fatichi ad assorbire un numero di laureati che è il più basso in Europa, fa pensare che ci siano problemi strutturali che vanno al di là della auspicata soppressione delle lauree umanistiche.

    • Enrico Marsili says:

      Riassumendo:
      1)Non e`in grado di rispondere in maniera concisa e usando parole sue;
      2)Incapace di dare una risposta precisa, afferma che i problemi sono strutturali.

      Spero che lei non tratti cosi` i suoi studenti che le pongono domande legittime.

      Riprovo:
      1)Puo`dirmi perche`, in base alla sua esperienza e a dati statistici, sia necessario insegnare i valori della societa`anche ad adulti non criminali (quali sono i tipii studenti universitari)? Seguendo il suo filo logico, si puo`dedurre che chi non riceve insegnamenti umanistici all`universita`(es. tutti gli studenti delle materie tecnico-scientifiche) sia meno capace di vivere in societa`, perche`non e`stato sufficientemente educato ai valori della democrazia. Ha dei dati per supportare questa interessante tesi?
      2)I laureati in discipine umanistiche sono in numero adeguato per il mercato del lavoro italiano oppure no?

    • Giuseppe De Nicolao says:

      Enrico Marsili: “Non e`in grado di rispondere in maniera concisa e usando parole sue”
      _____________________________
      La lecture di Martha Nussbaum tratta esattamente l’argomento su cui lei chiedeva lumi. Voleva una risposta ed io, assai gentilmente, le ho indicato dove poteva trovarla. Adesso mi chiede anche un riassunto sintetico: le suggerisco di considerare l’eventualità che io abbia meglio da fare che darle lezioni on-line. Faccia almeno un piccolo sforzo. La Nussbaum è brava.
      ==============================
      Enrico Marsili: “2)Incapace di dare una risposta precisa, afferma che i problemi sono strutturali.”
      _____________________________
      Ho fornito dati precisi: una classifica OCSE (Education at a Glance 2012) e le percentuali di laureati nelle materie umanistiche e artistiche negli USA e nelle principali nazioni europee, indicando la fonte e la pagina. Sono in numero adeguato per le esigenze di un paese che corre verso il declino? Potrei tranquillamente rispondere che i laureati italiani (21% nella fascia 25-34 anni contro 38% della media OCSE) sono troppi e che per accelerare il sottosviluppo dobbiamo smantellare ancora più rapidamente la formazione universitaria e, in particolare, quella umanistica.

    • Caro Marsili,
      scriva un’altra volta che i colleghi umanisti sono dei nullafacenti e semplicemente la butto fuori, senza alcuna ironia. Così va a discutere in qualche luogo più acconcio. Cerchiamo almeno di non insultare intere categorie di ricercatori.

    • Enrico Marsili says:

      Caro Prof. Banfi,
      questo simpatico blog e` casa sua, non mia. Si figuri se mi preoccupo di essere bannato. Mi limito a registrare le reazioni stizzite di alcuni commentatori. Per essere un blog di professori, c`e` parecchia acidita` (lo dico senza ironia).
      Saluti.

  9. Coloro verso i quali si dirige la giusta ironia di De Nicolao non riescono neanche a capire che per sostenere le loro tesi sono costretti a far uso di argomenti, concetti, presupposti di tipo filosofico e culturale in generale, di cui spesso non hanno affatto consapevolezza, ma che certo non si apprendono solo studiando i microcircuiti. Essi fanno parte di un’educazione complessiva, che forma l’essere umano nella sua totalità (e in essa ci stanno pure le scienze), di quella cultura che si apprende studiando la storia, la letteratura, meditando sui classici, leggendo Dante o Leopardi, ma anche Galilei o Heisenberg (che scriveva da grande scienziato qual era opere piene di cultura umanistica, storica e filosofica). Quando oggi si sostiene che la cultura umanistica viene fatta deperire, si vuol dire che per certuni questi aspetti della formazione dell’uomo sono inessenziali e che è importante invece sin da giovani dare agli studenti una preparazione tecnico-scientifica, perché questa sola sarebbe spendibile ai fini dello sviluppo economico. Ma poi non ci si venga a lamentare della crescente barbarie della società d’oggi. Questo i grandi scienziati lo sanno bene (e ho documentato altrove ciò); non lo sanno solo i piccoli scienziati, coloro che “gonfiano il petto” perché sanno tutto di un iPad, coloro per i quali la scienza è un mero bricolage tecnologico.

    • Enrico Marsili says:

      Egregio Prof. Coniglione, sul suo sito leggo che lei insegna storia della filosofia, cioe` (mi corregga se sbaglio) lei non insegna come elaborare concetti e produrre nuovi contenuti, ma si limita a mostrare come e cosa hanno fatto i suoi predecessori. Un po`come quei fisici e matematici che fanno SOLO storia della fisica e storia della matematica.
      Non pensa che sia necessario insegnare a dire/fare/produrre qualcosa di nuovo, piuttosto che rielaborare concetti gia`espressi piu`volte? Se le interessa le posso dimostrare il mio (modestissimissimo, sia chiaro) contributo al sapere scientifico, ma non riesco a capire come uno storico della filosofia possa generare nuovi contenuti.
      En passant, lei scrive da una rete pensata da fisici e matematici e tenuta in piedi da ingegneri. Un po`di onesta` intellettuale al riguardo non guasterebbe.
      Saluti

    • La sua concezione di cosa significhi insegnare/apprendere una disciplina è così ristretta e angusta da non meritare ulteriori commenti. E’ una chiara esemplificazione di cosa significhi essere culturalmente a digiuno. Lo stesso vale per la sua altra osservazione sul fatto che lei produce qualcosa di nuovo mentre a quanto pare io (come tutti gli altri umanisti) saremmo dei parassiti. Infine l’invito alla modestia intellettuale perché io scrivo in una rete inventata e gestita da fisici e matematici è talmente puerile da lasciare a bocca aperta. Se poi lei vuole un po’ prendersi la cura di sapere ciò che ne penso dell’interazione tra scienza della natura e scienze umane, può andarsi a leggere il report per la Commissione Europea da me scritto sulla società della conoscenza. Forse si farà un’idea più esatta di cosa mi occupo, invece di restare abbagliato dalle sigle e della materia di insegnamento ufficiale. Ecco il link dove può scaricare il final report: http://www.mirrors-project.it

    • Enrico Marsili says:

      Egregio Prof. Coniglione,
      ho letto le prime 20 pagine del rapporto da lei editato.
      Spero che non si offenda se le dico che non ci ho trovato nulla di nuovo. I concetti espressi (magari con parole un po` meno comuni del solito) circolano da un ventennio nell` ambiente della ricerca. L`interesse per la multidisciplinarita`, le ricadute ambientali, la necessita` di stimolare la creativita`, etc.
      Davvero, non riesco a vedere contenuti nuovi.
      Ci sono poi alcune perle come questa:
      “Otherwise, the prospect of a technocratic society looms, within which only those who have a strong grasp of technology would be able to decide and determine its implementation.”
      E` piu` o meno da quando l`uomo ha iniziato a usare utensili che questo assunot e` drammaticamente valido. Chi capisce la scienza e sa usare la tecnologia sopravvive e migliora le sue condizioni di vita, gli altri precipitano. L`unica eccezione sono preti e truffatori, che mascherano la loro ignoranza da metafisica. Si possono approntare delle reti di protezioni per chi sta male, per alcune categorie di indigenti, ma non capisco come si possa impedire di emergere a chi piu` sa e piu` capisce.

    • Sì, ecco legga sempre le prime 20 pagine di ogni cosa. Così potrà farsi un’idea corretta della cultura umanista. In ogni caso prima di utilizzare il concetto di “nuovo” si legga un po’ di letteratura in merito e poi ne parliamo. Nella bibliografia ne potrà trovare un po’.

    • Enrico Marsili says:

      Prof Coniglione, se lei include un summary nel suo report, immagino che li` si concentri la ciccia, come si dice a Roma. Il prof di filosofia a scuola insisteva sempre sul valore della sintesi nella comunicazione umana, forse non era un vero filosofo come Lei.

    • I summary in questi report hanno esigenze “politiche”. Pensare che la cultura si riduca ai summary la dice lunga sull’idea che di essa si ha. Non le viene in mente che anche una concezione diffusa, “non nuova” come sostiene lei, possa essere sostenuta e argomentata in modo nuovo e più convincente? Che ci stanno a fare secoli di filosofia, teologia, religione se tutto si dovesse ridurre al summary Dio c’è o non c’è? Con i Bignami tutto sembra un eterno ritorno e nessuna novità pare sia comparsa. Ah, scusi, dimenticavo che le vere cose nuove sono quelle che studia e produce lei. Comunque, vedo che la discussione rischia di incagliarsi, così ritorno alle mie attività parassitarie di mera riproduzione del vecchio, per aggiungere epiciclo ad epiciclo, e lascio anche a lei il tempo di impegnarsi nella produzione di quelle novità che rendono la nostra vita felice e degna di essere vissuta. Così sospendo la discussione.

    • Enrico Marsili says:

      Prof. Coniglione, la teologia e la religione sono infatti un ammasso di balle vendute agli ignoranti. Non fa un gran favore alla filosofia accostandola alle materie praticate dai ciarlatani.
      Comunque, il riassunto si fa per riassumere. Mi pare lo dica la parola stessa. E il riassunto del suo report e` chiarissimo. Peccato che non dica nulla di nuovo.

  10. Quando nel 2000 seguivo da studente il primo anno della SSIS i docenti di Psicologia, di Pedagogia e di Filosofia insistevano e ri-insistevano e ri-ri-insistevano sui “limiti della Scienza”, sparando ……. grosse come una casa.

    Appena possibile ho insegnato alla SSIS “Fondamenti Storico-Epistemologici della Fisica” proprio per cercare di salvare il salvabile. Mah.

    • Forse la cultura umanistica devrebbe essere insegnata dai “filosofi naturali”.

    • Enrico Marsili says:

      Gia`. Penso che i professori amino discutere dei limiti delle cose quando NON le capiscono. I limiti ci sono sempre, e`chiaro. Ma chi non e`impaurito dalla scienza sa muoversi entro quei limiti, senza preconcetti. Vaccini, OGM, biotecnologie, etc.
      I preti e una parte degli umanisti hanno paura della scienza (e della tecnologia) perche` mostrano e dimostrano, non si limitano alle chiacchiere.

    • Sì giusto, si ama discutere dei limiti delle cose quando non si conoscono. Ne sono un esempio lampante proprio i vostri commenti.

    • Per me “filosofo naturale” significa un uomo di cultura in grado di dare contributi significativi in diversi campi del sapere: dalla fisica nucleare, ai terremoti, alle reti complesse, ai fenomeni sociali. A Catania ce ne sono diversi, uno sicuramente e’ Vito Latora, che infatti insegna non solo all’Univ. ma anche alla Scuola Superiore di Catania.

    • Giusto per completezza, nei 3 esami SSIS “umanistici” all’Univ. Ca Foscari di Venezia presi rispettivamente (ho ancora il libretto):

      Psicopedagogia dello Sviluppo e dell’apprendimento scolastico, 23/30.

      Psicopedagogia dell’Insegnamento, 27/30

      Logica e Filosofia della Scienza, 30/30.

      Ma non feci il secondo anno SSIS perche’ vinsi nel concorso ordinario 3 cattedre: Matematica e Fisica (A049), Fisica (A038), Matematica (A047). E scelsi la A049.

      Ah, quanti problemi mi ha creato nell’ambito della ricerca avere la cattedra al liceo, ma questa e’ un’altra storia…

  11. io ce l’ho più lungo …

  12. Pingback: Cosa sono i rankings delle università?

Leave a Reply

Newsletter Powered By : XYZScripts.com