Dopo mesi e mesi di oscuro lavoro preparatorio pare proprio che stia per scoccare l’ora fatale della valutazione dell’apprendimento degli studenti. A gennaio L’ANVUR ha lanciato la sperimentazione di un nuovo test per valutare le “competenze generaliste” dei laureandi, che si terrà in dodici atenei italiani (Roma Sapienza e Tor Vergata, Milano Statale, Bologna, Padova, Firenze, Napoli Federico II, Cagliari, Messina, Piemonte Orientale, Udine e Lecce)
Se la sperimentazione avrà successo, a partire dal 2014 i risultati di questo test verranno utilizzati per l’accreditamento degli atenei e ai fini dei finanziamenti “premiali”, ovviamente distribuiti secondo il vangelo di San Matteo: “perché a chiunque ha sarà dato e sarà nell’abbondanza; ma a chi non ha sarà tolto anche quello che ha.”
La posta in gioco è quindi molto alta: in un momento in cui da più parti si invoca un forte ridimensionamento del sistema universitario, per ciascun ateneo un buon risultato nel test diventa una questione di vita o di morte. Facile prevedere che, in ossequio alla pratica del teaching to the test, ci sarà una corsa a modificare i programmi dei corsi di studio per massimizzare il punteggio ottenuto dagli studenti. Conoscere le modalità di questa ennesima valutazione diventa quindi di importanza cruciale.
Secondo il documento di presentazione dell’iniziativa, l’ANVUR si propone di misurare il grado di raggiungimento delle qualifiche che secondo l’Unione Europea devono essere conseguite dai laureati triennali (livello 6). I risultati dell’apprendimento relativi al livello 6 sono:
- critical thinking: Conoscenze avanzate in un ambito di lavoro o di studio, che presuppongano una comprensione critica di teorie e principi.
- problem solving: abilità avanzate che dimostrino padronanza e innovazione necessarie a risolvere problemi complessi e imprevedibili in un ambito specializzato di lavoro o di studio.
- decision making: Gestire attività o progetti tecnico/professionali complessi assumendo la responsabilità di decisioni in contesti di lavoro o di studio imprevedibili. Assumere la responsabilità di gestire lo sviluppo professionale di persone e gruppi.
Per assolvere questo compito cruciale il Gruppo di esperti dell’ANVUR ha deciso di affiancare a dei test specifici per ciascun ambito disciplinare un test “generalista” composto sia di domande a risposta aperta che di domande a risposta chiusa, il CLA plus.
Il CLA: Collegiate Learning Assessment
Il CLA è un test di valutazione dell’apprendimento di proprietà del CAE (Council for Aid to Education): è un’organizzazione statunitense finanziata (tra gli altri) dalla Carnegie Corporation (quella di Andrew Carnegie), dalla Ford Foundation e dalla Teagle Foundation, che opera nel campo dell’istruzione superiore.
Il presidente del CAE è Roger Benjamin, che precedentemente è stato per cinque anni direttore della divisione Educazione della nota RAND Corporation. Ed è proprio alla RAND che il CAE ha affidato l’incarico di sviluppare il CLA (Collegiate Learning Assessment): un test standardizzato che punta a valutare la performance didattica di interi atenei misurando il “valore aggiunto” fornito agli studenti. Il test non punta a valutare nozioni o competenze specifiche ma “higher order competencies” indipendenti da esse, che dovrebbero essere comuni a tutti gli ambiti disciplinari.
Il test è somministrato per via informatica su un campione di studenti ed è unico: tutti gli studenti degli atenei valutati vengono sottoposti alle medesime prove, indipendentemente dal corso di laurea che hanno frequentato. È costituito da tre prove scritte a risposta aperta: un singolo “Performance Task” e due “Analytic Tasks”: “Make an Argument” e “Critique an Argument” .
Nel “Performance Task” viene presentata allo studente una situazione immaginaria e assegnato un compito. Ad esempio, nel demo fornito dal CAE, una grande città in difficoltà di bilancio deve tagliare un progetto per le scuole medie: la scelta è tra un campeggio estivo in un parco naturale o un programma di tutoraggio didattico e sportivo. Lo studente deve redigere un memo indirizzato al city manager in cui analizza i due programmi e formula una raccomandazione su quale programma eliminare.
Riguardo gli analytic tasks, in “Make an Argument” agli studenti viene assegnata una traccia sotto forma di un’affermazione e hanno a disposizione 45 minuti per considerare ogni posizione sull’argomento e per motivarla. In “Critique an Argument” viene presentata un’altra traccia e allo studente viene chiesto di discuterne incongruenze e punti deboli in 30 minuti.
Gli elaborati vengono valutati secondo tre o quattro criteri: il livello di ragionamento analitico, l’efficacia dell’esposizione, la forma (grammatica, sintassi) e, solo per il performance task, la capacità di risolvere problemi. Per ciascun criterio viene assegnato un punteggio in una scala da 1 a 6.
Alla data del 2012 il CLA è stato utilizzato da università site in Irlanda, Hong Kong, Colombia, Portorico, Tailandia e Stati Uniti. I risultati di college e università statunitensi hanno fatto scalpore in quanto molto diludendo: secondo il libro-denuncia “Academically Adrift”, che riporta il risultato di uno studio condotto su 2000 studenti, dopo quattro anni di università ben il 36% dei valutati non ha mostrato alcun incremento “statisticamente significativo” rispetto al livello raggiunto al liceo.
La pubblicazione di “Academically Adrift” ha suscitato negli USA delle vivaci polemiche che hanno fatto finire il CLA sotto la lente di ingrandimento, e ben presto hanno cominciato ad emergere una serie di difetti che ne hanno rapidamente sgretolato la credibilità. Oltre a puntare sull’analisi dei dati , le critiche si sono concentrate sul metodo di valutazione in sé ma anche sull’oggetto della valutazione.
Le critiche – il valore aggiunto medio di ateneo
Le prime critiche hanno rilevato un difetto di base del CLA: il fatto di essere un unico test generalista con la pretesa di voler valutare il “valore aggiunto” medio di un intero ateneo. Innanzitutto, questa caratteristica fa sì che il test non possa venire impiegato per valutare la capacità dei singoli studenti: è inevitabile che, a seconda delle specifiche tracce assegnate nei vari tasks, gli studenti di alcuni corsi di studio saranno favoriti rispetto ad altri. Nell’esempio riportato (la grande città in difficoltà di bilancio) è evidente che uno studente di economia sarà mediamente avvantaggiato rispetto ad un iscritto a chimica o a lingue. Questo effetto si traduce in artificiali discrepanze di risultati tra un politecnico, un ateneo generalista e la Bocconi, tanto per fare un esempio. Questo problema del CLA è stato confermato anche dall’OCSE nell’AHELO Feasibility Study Report – Volume 2 per atenei di diverse nazioni
D’altra parte, oltre che al livello individuale, questo “valore aggiunto” mediato si dimostra molto poco utile anche a livello di ateneo. Un sistema di valutazione, per essere valido, deve essere finalizzato ad incrementare la qualità dell’ateneo: per fare questo deve fornire delle informazioni utili ad individuare con precisione i punti deboli, in modo da poter pianificare interventi correttivi. Ma, come è facile capire, l’informazione sull’ammontare di “valore aggiunto” erogato è ben poco significativa se è mediata su studenti di corsi di laurea completamente diversi, come fa il CLA. Oltre a ciò (ed è lo stesso Roger Benjamin, direttore del CAE, che lo afferma) il report CLA non può e non deve scendere nel dettaglio dei risultati conseguiti rispetto a ciascun singolo criterio di valutazione.
L’impostazione del CLA è olistica, pretende di condensare in un singolo numero tutta la complessità di un ateneo; punta a vedere la foresta disinteressandosi degli alberi, ma è solo a livello degli alberi (i dipartimenti) che si può agire per migliorare. Un po’ come se un medico si limitasse a misurare quanto i suoi pazienti stiano male senza entrare nel merito delle cause, ovvero delle loro malattie: magari può servire a fare una classifica del malessere, ma lo scopo dovrebbe essere quello di curarli, possibilmente con precisione chirurgica!
In definitiva, il concetto di “valore aggiunto medio di ateneo” è talmente vasto da rendere lo strumento spuntato e sostanzialmente inutile anche come strumento classificatore: secondo Douglass et al. una volta corretti i risultati in base al livello di partenza iniziale degli studenti (misurato dai test SAT) il valore aggiunto misurato dal CLA in diversi atenei statunitensi è sostanzialmente costante.
Le critiche – come viene valutato il test?
Ma le critiche non si sono fermate alla struttura del test: Kevin Possin ha analizzato in dettaglio la presentazione ufficiale del test CLA, nella quale viene illustrato con dovizia di particolari un test realmente utilizzato e ora ritirato dalla circolazione per essere utilizzato come esempio. Al termine dell’analisi Possin ha scoperto quello che definisce “a fatal flaw”, e ne ha ben donde perché è un difetto innegabilmente fatale: il test CLA fallisce nientemeno che nel suo scopo principale, ovvero misurare il livello di pensiero critico!
Possin si sofferma sull’esempio di “make an argument” contenuto nella presentazione ufficiale del CLA: la traccia proposta è “I finanziamenti statali sarebbe meglio destinarli alla prevenzione della criminalità invece che usarli per affrontare le sue conseguenze”. Il compito assegnato allo studente è: “Esprimere chiaramente una posizione e sostenerla con indizi e prove, considerando punti di vista alternativi oppure opposti alla propria argomentazione, sviluppando motivazioni logiche e convincenti e mostrando profondità e complessità di analisi riguardo alle questioni sollevate nella traccia”.
Nella presentazione vengono anche riportate tre risposte-tipo che rappresentano esempio di alta, media e bassa qualità, scelte dagli autori del test: ed è qui che arrivano le sorprese. La chilometrica risposta–tipo di “alta qualità” si rivela infatti un’autentica Caporetto della logica e del pensiero critico. In essa sono contenute: una banalità del tipo “l’affermazione contenuta nella traccia potrebbe essere falsa”; due argomenti dell’uomo di paglia; due false dicotomie; due fallacie del pendio scivoloso; un’argomentazione contraddittoria, che supporta sia una tesi che il suo contrario. Alla fine la risposta non riesce nemmeno a soddisfare la richiesta primaria, ovvero quella di esprimere chiaramente una propria posizione: si chiude infatti perfetto stile Ponzio Pilato, affermando che la questione della lotta alla criminalità dovrebbe essere semplicemente lasciata “al legislatore, alle Forze dell’Ordine, ai tribunali e ai cittadini”. [se vi state chiedendo come diamine possa essere la risposta di bassa qualità, la trovate a pagina 16 della presentazione, ma vi avvertiamo: il vostro sconcerto potrebbe aumentare!].
Il testo è ben scritto e scorrevole, ma è tutta retorica e niente sostanza. Il commento di Possin è lapidario: ”after reading this student’s response, I felt bullshitted”.
Il problema indotto dal fornire risposte-tipo non adeguate allo scopo va al di là di una brutta figura del CAE. Un’altra caratteristica inquietante del CLA è infatti il modo in cui vengono corretti e valutati gli elaborati, in quanto viene adottato un sistema del tutto inatteso in un contesto in cui si punta a misurare capacità logico-analitiche di livello superiore. Per il 90% degli elaborati il punteggio viene assegnato automaticamente da un software, l’Intelligent Essay Assessor prodotto dalla Pearson, ovvero la più grande multinazionale del mondo nel campo dell’editoria e dei servizi nel campo dell’educazione (include anche la casa editrice Penguin e il Financial Times). Il software viene calibrato dandogli in pasto circa un campione di circa 500 risposte, con le relative valutazioni assegnate da due umani differenti secondo linee guida definite dal CAE.
Vale la pena notare che l’utilizzo di algoritmi di correzione degli elaborati è in ascesa esponenziale (per ovvi motivi di economicità) e sta suscitando diffuse preoccupazioni. È di questi giorni la notizia di una mobilitazione di accademici contro la diffusione si questa pratica: ad oggi sono oltre 3.000 gli accademici statunitensi che hanno firmato una nitida petizione al riguardo, incluso Noam Chomsky. Se oltre alla stolidità dell’algoritmo aggiungiamo input umani che lasciano pesantemente a desiderare il disastro è pressoché completo.
Eppure la fiducia espressa dal CAE in questa procedura è pressoché illimitata: nel report relativo arriva addirittura al punto di affermare che la valutazione automatizzata sia su alcuni criteri “addirittura più accurata” di quella degli umani (!). La “prova” starebbe nel fatto che la discrepanza tra la valutazione di due umani diversi risulta mediamente più elevata di quella tra un umano e il calcolatore (!!): non si rendono neanche conto che, dal momento che il calcolatore è tarato mediando due umani, questi saranno ovviamente tra loro più distanti di quanto non lo sia il calcolatore da ciascuno di essi. In pratica, ragionamenti di questo tenore implicano che un calcolatore sia più abile di un umano non solo nel giocare a scacchi, ma anche nel problem solving e nel decision making: l’incubo fantascientifico di affidare i destini del mondo ad una grande “macchina delle selezioni” appare pericolosamente vicino.
Ritornando alle risposte tipo: come è dunque possibile che questi pessimi esempi siano addirittura utilizzati come materiale promozionale del test? Quali sono le cause di un simile autogol?
Il primo problema è che i test CLA si basano su un assunto quantomeno bizzarro: che il pensiero critico nasca per una sorta di “generazione spontanea”. Nei documenti CLA si legge infatti che anche se l’apprendimento dello studente universitario avviene all’interno di contesti disciplinari specifici e limitati, l’esperienza fatta in una particolare area scientifica fa sì che la conoscenza acquisita diventi “sufficientemente generalizzata” da consentirle di “trasferirsi” nel campo del ragionamento avanzato, del problem solving e del decision making a tutti i livelli.
Ma questo magico “trasferimento” esiste? È sufficiente essere esperti di un campo disciplinare per conoscere e gestire gli strumenti del pensiero critico di alto livello?
In realtà, pare proprio di no. Un significativo studio del 1995, condotto da Richard Paul sui docenti di 64 università californiane ha sollevato il velo su una realtà amara: non solo i professori capiscono poco di pensiero critico e di come insegnarlo, ma credono sinceramente (ed erroneamente) di esserne degli esperti. Ad esempio: nonostante ben l’89% dei professori abbia sostenuto che il pensiero critico costituisca un obiettivo primario della loro attività di docenti, solo il 19% è riuscito a definire il concetto di “pensiero critico” in modo soddisfacente; solo l’8% si è mostrato in grado di spiegare chiaramente che differenza c’è tra un assunto e un’inferenza. Il magico “trasferimento” non si vede affatto, anzi! Appare probabile che ideatori, estensori e correttori dei test CLA (reclutati in base al requisito piuttosto minimale di aver professionalmente valutato degli scritti) siano un campione rappresentativo della comunità accademica allargata e siano quindi privi di competenze specifiche nel campo della logica applicata e del pensiero critico.
Ma cos’è questo pensiero critico?
Il secondo problema va invece alla radice del concetto del CLA: è possibile misurare il pensiero critico in astratto? Indipendentemente dalle conoscenze specifiche e dall’ambito di applicazione? La risposta è no, e per un motivo molto semplice: definire che cosa sia il pensiero critico non è affatto semplice né scontato. Chi prova a farlo seriamente finisce inevitabilmente per scrivere lunghi componimenti che esaltano, invece che ridurre, la complessità del concetto. La verità è che non esiste una definizione semplice e condivisa di “pensiero critico”: la questione è anzi motivo di dispute non banali e per di più appare evidente che la nozione di pensiero critico non possa prescindere da considerazioni di tipo filosofico ed etico. Stephen Brooksfield pone la questione molto chiaramente: chi piega la propria intelligenza alle esigenze di mercato dell’attuale sistema capitalistico per massimizzare il proprio personale profitto immediato a discapito della collettività (e anche del suo stesso futuro) sta “pensando criticamente”? O forse il pensiero critico viene meglio esercitato da chi si oppone a queste logiche e tenta invece di realizzare forme di società alternative, come fecero gli operai dei consigli di fabbrica durante l’occupazione della FIAT nel 1920?
Il CLA non misura quindi (perché è impossibile farlo) la complessità del pensiero critico, ma solo alcune capacità logiche ed espressive arbitrariamente selezionate dai suoi ideatori, per di più in contesti artificiali, semplificati e in definitiva non generalizzabili. La sua pericolosità sta però proprio nella sua pretesa di misurarlo, perché così facendo impone una sua particolarissima definizione di pensiero critico che, con la complicità dell’OCSE e del nostrano connubio gattovolpesco ANVUR-MIUR, spazza via d’incanto ogni dibattito e diventa lo standard di riferimento in base al quale impostare l’intera preparazione universitaria dei nostri studenti.
In conclusione: che fare?
In definitiva, il CLA è uno strumento non solo inutile, ma addirittura dannoso nella misura in cui viene utilizzato per indirizzare le strategie didattiche di un ateneo o peggio di un intero sistema universitario, con tutte le ovvie e drammatiche ricadute che ciò comporta sull’intera struttura sociale. Sono molte le voci autorevoli che si sono levate per scongiurare un simile tragico scenario, ma il treno del CLA continua a procedere spedito, spinto dagli apprendisti stregoni dell’OCSE che perseguono l’incubo di misurare qualsiasi cosa. In questa situazione la domanda che appare più urgente l’hanno posta Douglass, Thomson e Zhao: “come si può fare per far capire meglio ai ministri e agli altri decisori politici i pericoli di un test di questo tipo”?
La nostra impressione è che, nell’attuale situazione politica, elaborare e proporre nuovi e sempre più cogenti ragionamenti che evidenzino le lacune e i danni del CLA non sarà sufficiente. Sono tanti, troppi coloro che oggi supinamente accettano o (in alcuni casi) addirittura implementano con entusiasmo provvedimenti destinati a radere al suolo le possibilità di un futuro cambiamento della società. È più che mai necessaria l’apertura di un dibattito pubblico che metta in movimento le coscienze, le menti, e i corpi contro questa perversa meritocrazia, che serve solo a garantire i privilegi a coloro che sono già privilegiati: possibilmente prima che lo sprofondamento sia tale da rendere impossibile il risalire.
Un articolo con argomenti estremamente dettagliati e specifici per combattere argomenti generalisti. Insomma il solo modo di gettare tutto alle ortiche pur di non valutare niente.
Se fossero stati usati test estremamente individuali (guardare agli alberi piuttosto che alla foresta, con la metafora usata) sarebbe stato criticata la valutazione dei singoli come soggetta a fluttuazioni e specifiche pecche.
Si utilizzano controesempi fin troppo dettagliati (l’argomento del “city planning” come appannaggio degli economisti; solo perche’ c’e’ un ‘planning’ nel mezzo solo un economista puo’ risolverlo…mah, o il ‘fatal flaw’ del pensiero critico) per cercare di smontare il tutto.
Che in realta’ mi sembra accettabile. Ogni metodo di valutazione avra’ SEMPRE dei fatal flaws…
La questione non e’ quindi il metodo (AVA o altro che sia, da discutere certo, e migliorare) ma evidentemente la volonta’ di non voler introdurre nessun sistema di valutazione. Una posizione conservatrice e di mantenimento, ma almeno venga detto esplicitamente, e diventa piu’ semplice, senza bisogno di inventarsi fantasmagorici voli pindarici sulla definizione del pensiero critico, o spacciare come disastri gli scenari futuri, pur sempre legittimi, ma comunque espressione parziale di un argomento ben piu’ complesso legato a scelte politiche, alla definizione del futuro delle universita’ e, tenetene conto ogni tanto, alla necessita’ di EFFETTUARE DELLE SCELTE, che richiedono dei parametri su cui valutare. Sempre. A meno che non vogliate lasciare le scelte alle solite cupole e cupolette locali e nazionali, restie a qualunque vincolo esterno.
Si ripete il sillogismo già usato dalla Gelmini: la riforma Gelimini è una riforma, chi è contro la riforma Gelmini è contro le riforme, chi è contro le riforme è un conservatore. Che poi l’autore del commento sia anche un nickname di un anonimo chiude il cerchio.
Il solo modo per evitare le critiche… annullare l’avversario, personalmente e senza affrontare gli argomenti.
Grazie del commento costruttivo.
A parte questo, non nego le difficolta’ insite in una valutazione, qualunque essa sia. Ma in questo articolo ne sono state individuate alcune, ottimo, ma da quelle si deduce che tutto il sistema andrebbe affossato. Questo e’ l’argomento che vorrei combattere. Da anonimo, certo. Non oso pensare alle ripercussioni personali che altrimenti subire, essendo fuori della cerchia (assolutamente legittima) di chi scrive su Roars.
signor anonimo lei continua ad usare argomenti ridicoli. è lei che, per evitare di “affrontare gli argomenti”, ha usato un sillogismo da seconda elementare per criticare l’ariticolo: io glielo ho solo fatto notare.
Per quanto rigurda la “cerchia” che scrive su Roars, come spiegato qui https://www.roars.it/chi-siamo/organizzazione-e-scopo-del-sito/ funziona così:
“Questo sito vuole contribuire allo sviluppo di una discussione meditata e competente sui problemi dell’università e della ricerca, anche in qualità di aggregatore di diversi luoghi di discussione e di riflessione italiani e stranieri.
Sono benvenuti articoli originali ma accoglieremo volentieri anche testi già pubblicati altrove: lo scopo principale del sito è di costituire allo stesso tempo un punto di riferimento, un luogo di discussione e un archivio on line di idee, dati, documenti, progetti sull’università e sulla ricerca oggi in Italia e all’estero”
L’unica discriminante per pubblicare su questo sito è passare la valutazione della redazione.
Signor Sylos Labini, continui a non affrontare gli argomenti, per quanto ti possano sembrare ridicoli.
Il sillogismo da seconda elementare (che ricordo deriva da molto piu’ lontano…) lo hai usato tu, non certo io.
Si continua ad attaccare “l’avversario” per annullare i suoi argomenti (che se fossero ridicoli sarebbe semplice annullare, senza bisogno di attaccare l’avversario). p.s. questa e’ una tautologia, non e’ un sillogismo.
Lei ancora non è riuscito a tirare fuori un argomeno che sia uno. Comunque perdere tempo con un flamer anonimo non ha senso.
Caro signor Golene,
grazie per il suo commento, anche se mi lascia decisamente sconcertato. Lei ammette con serenità che non solo il CLA, ma qualunque metodo di valutazione abbia dei “fatal flaws”; però punta il dito contro chi li evidenzia.
Quello che lei sta dicendo implica direttamente che non si possa dibattere su quale sia il sistema di valutazione migliore, perchè per fare questo bisogna evidenziare i difetti di ognuno: però evidenziare i difetti significa essere contro la valutazione quindi non si può fare. Quindi in buona sostanza i sistemi di valutazione sono come le religioni o come i gusti, dei quali “non est disputandum”… in pratica, uno vale l’altro. Non lo trova lievemente paradossale?
Sull’accusa di essere contrario ad ogni forma di valutazione: io per lavoro valuto ogni anno più di cento studenti. Lo faccio verificando come hanno appreso una serie di argomenti specifici, elencati nel programma di esame: gli assegno uno scritto e poi pongo loro domande e ascolto le loro risposte, dedicando tre quarti d’ora a ciascuno di essi per sondare la loro preparazione. Alla fine assegno loro un voto in trentesimi, che insieme ai voti assegnati per gli altri esami dai miei colleghi concorre al voto finale di laurea. Mi spieghi che cosa c’è che non va in questo sistema di valutazione, ma faccia attenzione: secondo la sua stessa logica, se lo farà significa che lei è contro ogni tipo di valutazione. Grazie ancora e buona giornata.
Boh, forse non hai letto bene. Ma diciamo che sono io a non essermi spiegato bene. Cerco di spiegarmi meglio.
Poi, per me, puoi astenerti dal rispondermi se mi consideri un flamer (che mi sembra di capire flamer=chi la pensa diversamente da quello che tutti qui dicono e scrivono qui). Fai tu.
Argomento 1: l’articolo usa un esempio di esercizio sul ‘city planning’ per dimostrare che la valutaizone cosi fatta favorirebbe alcuni settori (nello specifico economia) rispetto ad altri.
FALSO. Il fatto di usare argomenti apparentemente specifici non implica conoscenze specifiche. E’ il metodo usato anche nei test PISA (usato ad es. in precedenti commenti ai post per evidenziare le performace nell’istruzione della Finlandia).
Inoltre, quando esistono settori favoriti (per es. in esercizi di logica mi aspetto che i settori scientifici siano favoriti rispetto agli umanistici) immagino (e spero) che i test siano bilanciati per fornire una valutazione media.
Argomento 2: gli alberi e la foresta. Si argomenta che i test guardano alla foresta (universita’) e non agli alberi (dipartimenti).
MISLEADING. Questo argomento (corretto) e’ fuorviante in quanto confonde due questioni che vanno poste su piani diversi. La valutazione generalista dell’Universita’ su cui basare il fondo premiale e la valutazione sui dipartimenti sul quale basare le strategie di miglioramento/investimento dell’ateneo.
Inoltre faccio peraltro notare che nell’articolo di K. Possin (da cui buona parte di questo articolo ROARS sulla parte del pensiero critico e’ stato ripreso) e’ una opinione critica (assolutamente rispettabile) sul CLA.
Argomento 3: l’incubo della misura. Ovvero si negano le soluzioni.
Le universita’ e il MIUR comunque devono fare delle scelte strategiche. Possiamo aumentare i fondi destinati a ricerca e universita’, come tutti auspichiamo, ma tutti vorremmo che questi fondi venissero destinati a migliorare il sistema, guardando al loro fine ultimo, didattica e ricerca. Possiamo discutere sul come (non tutti necessariamente la pensano nello stesso modo).
Tuttavia le scelte devono essere guidate da dei parametri, il piu’ possibile oggettivi.
Si puo’ affermare: questi parametri NON esistono. E’ l’affermazione che rispetterei se venisse fatta esplicitamente, invece che di fatto supporla con argomenti che distruggono la valutazione e introducono il terrore per qualunque disastro legato alla misura (quello che viene fatto in questo articolo).
Argomento finale (ma non ultimo): concordo con l’attenzione che deve essere posta nei sistemi di valutazione per evitare storture, ma affermare che “il CLA è uno strumento non solo inutile, ma addirittura dannoso nella misura in cui viene utilizzato per indirizzare le strategie didattiche di un ateneo o peggio di un intero sistema universitario, con tutte le ovvie e drammatiche ricadute che ciò comporta sull’intera struttura sociale” basandolo su argomenti che come ho evidenziato sono parziali e comunque controbattibili, mi sembra una conclusione piu’ ideologica che ‘scientifica’.
Caro Alessandro Ferretti, grazie per la risposta.
Solo un appunto: non ho mai detto che non si possa dibattere su quale sia il sistema di valutazione migliore, perchè per fare questo bisogna evidenziare i difetti di ognuno. Sto dicendo che ogni sistema di valutazione ha dei difetti, che e’ GIUSTO indicarli, ma non per questo affossare tutto il sistema.
Mi sembrava chiaro. Ma sembra che non riesco a spiegarmi bene. Me ne dispiaccio.
Caro signor Golene,
a me pare che quello che è aprioristicamente favorevole ad questo sistema di valutazione è lei. Prova ne è il fatto che lei stesso spara in stampatello “FALSO” perchè “immagina (o spera)” che il test sia bilanciato: converrà con me che basare un’argomentazione sulla sua personale immaginazione sia quantomeno peculiare.
Sulla sua seconda obiezione (“MISLEADING”): se si peritasse di leggere i link nell’articolo, scoprirebbe che nell’ambito della valutazione un sistema che prevede solamente di assegnare carote o bastonate senza mettere il soggetto esaminato in condizione di migliorarsi è semplicemente un sistema di valutazione “non valido”.
Evidentemente lei pensa di trattare gli atenei come un tempo si trattavano gli schiavi: frustate ai cattivi, premietti ai buoni. Se lei avesse una qualche cognizione organica sulla gestione dei processi e del personale, saprebbe che da un buon numero di anni nelle stesse aziende private il personale non viene più trattato così, e non per motivi umanitari: semplicemente perchè è un sistema sommamente improduttivo. In ogni caso, la ringrazio ancora per la risposta: dato che l’argomento è interessante, la prego, prima di ribattere, di provare perlomeno a documentarsi in materia per poter affrontare la discussione da una base di partenza minimalmente condivisibile e non su banalità, pregiudizi ed immaginazioni.
E’ evidente che continuo a spiegarmi male. Me ne scuso.
Il fatto di essere contrario ad articoli che mettano in luce i difetti di un sistema (e mi vabene) e da questi decidano (e direi aprioristicamente) di buttarlo via non vuol certo dire di essere favorevole a questo sistema di valutazione. Tantomeno aprioristicamente.
L’argomento del MISLEADING resta in piedi, ovvero i livelli vanno suddivisi. Se si deve dare un quota premiale, la si suddivite in base ai risultati ottenuti, che i test dovrebbero valutare (e ne possiamo discutere se lo fanno). Invece come questa quota premiale o altri fondi vanno suddivisi all’interno degli atenei e’ questione diversa, e dovrebbe essere parte delle strategie e pianificazioni dell’ateneo.
Inoltre qui stiamo valutando le strutture (atenei e dipartimenti) non le persone. Non capsico quindi la deviazione con il commento sul personale delle aziende.
Grazie infine per il consiglio sul documentarmi. Saggio consiglio. Ne terro’ certo conto. Non so come ho vissuto senza fino ad oggi.
Caro Golene,
difficile seguire un dibattito quando i suoi argomenti divergono e rimbalzano come una pallina in un flipper. Desumo dal suo IP che lei è un mio collega dell’INFN Torino: perchè non ne parliamo di persona? A meno che non tema ripercussioni sulla carriera da parte di un temibile membro della “cerchia”…
Rispondo nella sezione commenti ad un articolo, commentando l’articolo stesso, seppur opponendomi ad alcune delle sue conclusioni, e ritengo che questo riguardi tutti. Le discussioni in privato sono sempre utili, per chiarirsi, visto che in effetti molte delle questioni mi sembrano piu’ frutto di incomprensione.
Mi compiaccio inoltre che si controllino i numeri IP di chi scrive, pur non avendo espresso minacce, offese, violato netiquette, o regole del sito (a meno che essere anonimi sia espressamente vietato, nel qual caso mi taccio).
Son sicuro che non e’ voluto, ma cosi’ fatta appare come una minaccia a chi in futuro voglia similmente esprimere opinioni contrarie da quelle espresse negli articoli di roars.
Caro Golene,
ovviamente nessuno è andato a controllare il suo indirizzo IP sulla base dei contenuti dei suoi commenti: viene fatto in modo automatico per tutti, come succede in pressochè la totalità dei siti che accettano feedback dal pubblico. Anche wikipedia, per fare un esempio, traccia l’IP dei suoi contributori: sono lieto che questo episodio l’abbia aiutata a rendersi conto di una questione dibattuta in lungo e in largo, ovvero che l’anonimato in rete è più mito che realtà.
Detto questo, francamente non riesco proprio a capire tutto questo timore, o l’evocazione di una minaccia: io sono un semplicissimo ricercatore universitario al primo gradino della carriera, non sono componente di alcuna commissione di valutazione o altro qualsivoglia luogo di potere. Quale minaccia possa mai costituire io per lei mi risulta un mistero.. siamo qui per discutere: se non ci fossero pareri discordanti vivremmo in una società pietrificata e tristissima. Ben vengano quindi i dibattiti, anche accesi: e per il dibattito sin qui avuto con lei la ringrazio molto!
So di dire una banalita`, ma bisognerebbe valutare le competenze (hard skills) invece della capacita` di intortare (meglio note come soft skills). Perlomeno nel campo tecnico-scientifico, che include anche economia, giurisprudenza, medicina, etc.
Se sai risolvere un`equazione, scrivere della documentazione software, valutare una sentenza, scrivere una diganosi a partire dalle analisi del sangue, dimostrare o confutare un assunto, interpretare in maniera semiquantitativa un`analisi strumentale, allora l` universita` ha fatto bene il suo lavoro. Se no, i tuoi studenti verranno respinti ai colloqui di lavoro.
Impegnare una classe docente in procedure assurde è un modo per distoglierla dai suoi compiti. Semplicemente il tempo per fare le cose che servono allo studio e alla didattica viene eroso da procedure imposte da potenti tecnoburocrati che corrono dietro ai nuovi idoli della valutazione, dell’oggettività etc. e impongono scelte relative a materie ed esperienze di cui non hanno conoscenza alcuna.
Articolo straordinario. Mi permetto di ricordare che la valutazione è insita nella struttura del pensiero scientifico e si è sempre fatta. Quindi, evitiamo di fare i pretoriani dell’Anvur che, come è noto, sta facendo solo disastri. Perché ha introdotto sistemi di valutazione non scientifici e allo scopo di ridimensionare il sistema universitario, perseguendo il falso mito dell’eccellenza. Che poi gli eccellenti sarebbero gli amici degli amici.
Sicuramente l’ANVUR ha fatto e sta facendo disastri. Tuttavia da questo non deduco che TUTTO quello che viene fatto e’ da affossare. In particolare l’introduzione di un sistema di valutazione premiale.
Nello specifico, cosa c’e’ di cosi’ non scientifico nella valutazione proposta?
Sicuramente ci sono elementi da migliorare; per es. il fatto che la valutazione generalista sull’intero ateneo dovrebbe essere affiancata da una valutazione dei dipartimenti (ma non si parli di VQR che tutti saltano sulla sedia!!!).
Ma vediamo allo scopo: la valutazione generalista dell’ateneo e’ mirata alla quota premiale, che necessariamente deve soppesare TUTTO l’ateneo. Poi l’ateneo dovrebbe migliorare le singole parti (i dipartimenti) per es. con valutazioni (interne o esterne), per capire dove agire, per finanziare meglio (settori deboli) per esempio e riversare la quota premiale con una strategia a lungo respiro.
Ma sono due momenti distinti, che in questo articolo si mettono insieme per annullarli a vicenda.
Che poi la valutazione sia insita nella struttura del pensiero scientifico concordo. Ma non la valutazione legata a decisioni politiche, ovvero di gestione dell’ateneo, del suo futuro e quindi delle scelte strategiche. Queste, ahime’, sono abbastanza scorretale dal pensiero scientifico….
Come bene mette in evidenza l’articolo il test CLA è già oggetto di forti critiche altrove, dove è più difficile sospettare mafie e cupole. Qui non è in discussione il principio della valutazione (e daje), ma il modo in cui si sta cercando di implementarla. Spostare il discorso sul refrain valutazione sì/valutazione no, a mio avviso, è solo un modo per buttarla in caciara, come si usa dire. La tesi che postula che una cattiva valutazione è meglio di nessuna valutazione è errata perché alla fin fine ha una valenza solo retorica ed è finalizzata a difendere l’esistente a qualsiasi costo. Il punto, invece, è raggiungere una valutazione ben congegnata: le critiche a quanto si sta facendo dovrebbero servire anche a questo. Ah, se solo il decisore politico (MIUR) e il direttivo ANVUR fossero dotati di “critical thinking”..l’ideatrice di AVA dice di averlo appreso dai suoi maestri americani, ma a me resta qualche dubbio.
Giusto per chiarezza, non ho mai detto che una cattiva valutazione e’ meglio di nessuna valutazione.
Concordo sulla necessita’ di raggiungere una valutazione ben congegnata.
E questo articolo potrebbe aiutare allo scopo se anche lui non la buttasse ‘in caciara’ con argomenti del tipo prendo spunto da alcune critiche a questa valutazione (che come detto saranno sempre ravvisabili, in qualunque valutazione) per affossarla in toto.
[…] Padova, Firenze, Napoli Federico II, Cagliari, Messina, Piemonte Orientale, Udine e Lecce).. Continua a leggere Share this:StampaEmailMi piace:Mi piace […]
Secondo me, qualsiasi ragionevole “test” utilizzato per valutare i laureati metterebbe in evidenza soprattutto le differenze nella preparazione iniziale, cioè al momento dell’immatricolazione, degli studenti dei diversi corsi di laurea. Per fare un esempio le matricole di fisica sono molto più preparate delle matricole di scienze politiche, naturalmente con le dovute eccezioni. I laureati in fisica risulterebbero in qualsiasi ragionevole “test” più bravi dei laureati in Scienze Politiche. Comunque in assenza, in Italia, di un “SAT score” (punteggio nello “Scholastic Aptitude Test”) da confrontare con i risultati del “test” applicato ai laureati, non vedo come si possano usare i risultati del test per valutare il contributo di un’università alla formazione dei suoi laureati.
Naturalmente premiare le università che sfornano i migliori laureati senza tener conto del livello di competenza degli immatricolati dà luogo ad effetti perversi. Mi viene in mente l’esperienza di un mio collega israeliano (recentemente scomparso) uno dei cui figli ha ottenuto, poco prima che il padre morisse, la “Fields Medal” che è il massimo riconoscimento cui possa aspirare un matematico. Il mio collega raccontava di aver trascorso un anno in Inghilterra dove le scuole secondarie gareggiavano per ottenere l’iscrizione dei suoi (numerosi) figli. Mi spiegava che le scuole che avevano i migliori studenti ottenevano dal governo più soldi. La sua saggia opinione era invece che sarebbe stato più opportuno dare più soldi alle scuole con allievi meno bravi per aiutarle a portare questi studenti a livelli ragionevoli di competenza. Sono passati molti anni dalla visita del mio collega in Inghilterra e sono sicuro che oggi il governo inglese non premia più le scuole che hanno i migliori risultati senza considerare le condizioni iniziali degli studenti. Noi purtroppo non sappiamo imparare dagli errori degli altri.
Il “disegno manifesto” che traspare dalla iper-burocratizzazione dell’universita` e` parallelo a quello che ha operato con successo nelle scuole secondarie superiori: schiacciare i docenti e le strutture sotto un peso burocratico che impedisce di lavorare. Che io sappia, nelle scuole secondarie superiori questo disegno e` stato implementato a partire dai primi anni novanta: sommergi i professori sotto una montagna di adempimenti burocratici, e la scuola non funziona piu`. Traccia di questa storia e` contenuta nel libro ”Segmenti e bastoncini” di Lucio Russo, come anche in numerosi libri e pamphlet stampati in proprio, in quegli anni, dai migliori professori della scuola secondaria superiore, che percepivano che la scuola si avviava a prendere una direzione chiaramente suicida. Nel piu` recente libro ”Chi sono i nemici della Scienza?”, di Giorgio Israel, leggiamo un’analisi della situazione attuale: il titolo di questo libro non e` dei piu` scorrevoli, ma il libro, che si legge tutto d’un fiato, illustra con precisione come si distrugge una scuola e, in particolare, il ruolo svolto dalla iper-pedagogizzazione (cioe` il ruolo svolto dalla lobby dei pedagogisti). Ora si procede allo stesso modo con l’universita`, schiacciandola sotto il peso di adempimenti burocratici che impediscono di lavorare. Una delle tecniche e` quella di misurare tutto il misurabile e anche il non misurabile, anzi ignorare che non tutto si puo` misurare, e far finta di misurarlo lo stesso, magari con formule in cui si divide per zero.
Affinche’ l’universita` possa funzionare bene, e quindi produrre laureati capaci,
bisognerebbe prima di tutto implementare con intelligenza una prova iniziale della verifica della preparazione iniziale degli studenti; ma non come surrogato del numero chiuso! Siccome questo margine e` fatalmente diventato troppo angusto, mi permetto di rinviare a quello che ho scritto su questo tema qualche tempo fa, su queste pagine. Dopo che avremo speso energie e intelligenze per fare questo, sara` un piacere tentare di ”misurare” la qualita` dei laureati, in quanto questa sara` sicuramente alta.
Nel romanzo pedagogico di Makarenko “Igor e i suo i compagni”, che pare in italiano non sia stato tradotto, il protagonista Igor, adolescente, o poco meno, deve, in presenza della psicologa valutante le sue attitudini (anche di problem solving), guidare con la massima rapidità (economia, efficienza) una volpe attraverso un labirinto in modo che la volpe acchiappi, mettiamo, un pollo che sta all’altro capo del labirinto. Dettaglio più o dettaglio meno, questa è la situazione. Igor riflette e poi non risolve niente. Perché?- gli chiede la valutante. Mah, risponde Igor, forse la volpe non ne ha voglia o non ha fame o ha paura che lì ci sia anche il contadino che la prende a legnate. Siamo negli anni ’30.
Non ricordo più se Igor dice pure di non averne lui voglia e che non gliene importa niente delle faccende della volpe.
Perché lo studente dovrebbe sottoporsi al testaggio? Chi lo obbliga? deve dare il suo consenso all’atto di iscriversi? Per una cosa che non sa nemmeno cosa sia in sé e di cui non conosce né le implicazioni né le conseguenze? Chi decide e su quale base che i compiti che si devono risolvere rispondono a principi – e quali – della coesistenza civile e professionale? Se uno argomentasse con logica ferrea che è meglio mantenere o introdurre la pena capitale, vale come risposta positiva o negativa?
Un’ultima domanda: se è vero che il sistema finlandese funziona così bene, perché non si prende quello come modello e non i cascami della cultura pedagogica statunitense?
Uno degli atteggiamenti “misleading” nell’analizzare queste proposte di “test” sui “generic skills” è quello di pensare che Noi Europei abbiamo messo in opera questo sistema (intendo dire “i principi” di questo sistema, sovente citati qua e là – anche in questo articolo) con l’idea che esso debba essere implementato precisamente sotto il quadro concettuale con cui attualmente i “test” vengono popolarizzati in Italia (via ANVUR).
In realtà non è così. Il primo è forse più forte errore distrattivo è quello di pensare questo schema come eteronomo rispetto all’ordinaria pratica della valutazione che ognora (e da sempre!) i docenti hanno messo in campo per valutare gli studenti (cfr. anche una delle repliche date più sopra da A. Ferretti).
No, se si è voluto pensarlo come eteronomo, come “altro”, lo è per specifica volontà di coloro che intendono implementarlo in questo modo.
Invero il più sensato (e corretto) modo di pensare i risultati formativi “generici” di un corso di laurea è quello di considerarli delle “proprietà formali” di una serie (ben più ampia) di apprendimenti concreti, molti dei quali in effetti sono proprio gli apprendimenti “specifici”, cioè “subject-specific” che si imparano – e si verificano! – nei singoli corsi/moduli didattici, e i relativi esami.
Ed anche quelli che non possono fare riferimento ad alcuno di essi, dovrebbero in realtà venire insegnati (e verificati) con moduli specifici ai quali fare spazio opportuno (i.e.: con alcuni CFU, tanto per capirci) nel corso del curriculo: sto pensando a particolari moduli, che so, sulla scrittura scientifica, sulla capacità di comunicare (anche con l’ausilio di mezzi tecnici sofisticati), il team-working, etc. etc. tutte quelle cose lì, insomma.
Spero di essermi spiegato, in breve, sennò bisogna fare discorsi più lunghi…
Del tutto d’accordo. In generale, più si punta ad agglomerare valutazioni di aspetti differenti in un unico parametro e più il parametro risultatante è privo di informazioni o addirittura fuorviante.
Un articolo molto interessante relativo a questo aspetto, esemplificato nel caso dei rankings delle università, si trova qui:
http://www.ctcl.org/files/pdfs/RankingsNewYorkerGladwell-1.pdf
Forse bisognerebbe evitare che si usino nickname su questo sito. Ho la sensazione che, oltre a fioccare gli osservatori anonimi, possano proliferare i provocatori. Suggerisco a tutti di leggere il fantastico libro di simone sarasso, Settanta, per rendersi conto della situazione. Anzi, inviterei la redazione a non accettare contributi anonimi. E’ giusto discutere, anche in modo acceso, ma vorrei sapere esattamente con chi parlo. D’altra parte, la legge proibisce di girare mascherati per strada. A meno che non sia carnevale…
Del tutto d’accordo. Ho notato anche in altre occasioni che quando si toccava l’Anvur, comparivano difensori mascherati. Per lo meno indica che l’Anvur segue il dibattito, ma tanto per informarsi.
Sì, è carnevale tragi-grottesco, degno di un racconto di Arthur Schnitzler combinato con Kafka e con un testo dadaista.
[…] utilizzati per l’accreditamento degli atenei e ai fini dei finanziamenti “premiali”… continua a leggere Condividi:StampaEmailMi piace:Mi piace […]
Sulla risposta di Alessandro ferretti:
Resto basito da questa risposta…
Il problema dell’IP non e’ certo sapere o non sapere che viene tracciato in automatico; oramai anche i bambini lo sanno. Come gestore io stesso di un blog li seguo. Ma non li rendo pubblici in forma parziale o totale. Questa e’ una esplicita violazione. Almeno fino a quando il sito prevede interventi anonimi.
E l’anonimato non e’ certo per timore dell’autore dell’articolo! Sia esso un professore, ricercatore, ministro o veggente. L’anonimato permette di esprimere liberamente le proprie opinioni, senza che queste vangano soppesate su chi le fa. Come a me non interessa chi scrive l’articolo, cosa sia e cosa fa. Mi interessa solo cosa scrive. E su quello commento.
Quindi concordo con Alessandro Bellavista: se si pensa che i contributi anonimi non aiutino la discussione, allora che il sito preveda in maniera esplicita il divieto di contributi anonimi.
Caro Golene,
in tutta franchezza io non avevo pensato a questi aspetti della questione. Le chiedo scusa per i problemi che posso averle causato, la prego di credermi, in maniera del tutto involontaria.
Per chiarezza: se si è iscritti a ricevere le notifiche di nuovi commenti in coda ad un articolo (cliccando sull’apposita casellina qui sotto) quando viene messo un nuovo commento si riceve automaticamente una email che contiene varie info tra cui l’IP dal quale il commento è stato messo e la corrispondente email dell’autore. Dunque per questo motivo gli IP sono pubblici nel senso che sono accessibili a chiunque cliccki sulla casellina in basso all’articolo con scritto “ricevi notifiche”.
.
Abbiamo discusso varie volte la faccenda dell’anonimato in redazione e abbiamo deciso di permettere l’invio di commenti da profili con nickname
anonimi ma con la clausola che gli anonimi, oltre a dover rispettare come tutti norme di civiltà e buon senso, non si devono rendere autori
di discussioni troppo prolungate perché c’è una evidente asimmetria tra chi ha una identità e chi no. Se lo fanno i commenti degli anonimi vengono semplicemente cestinati.
.
Il mio commento di sopra in cui dicevo che è inutile perdere tempo come con un anonimo che provoca discussioni (flamer) voleva mettere in
risalto esattamente questo fatto.
“L’anonimato permette di esprimere liberamente le proprie opinioni, senza che queste vangano soppesate su chi le fa. ”
Preoccupazioni fuori luogo e non adatte a questo luogo, che comunque arrivano in ritardo. Per alcuni lustri nei consigli di facoltà su molti problemi si sarebbe dovuto ricorrere al voto segreto perché molti, non volendosi ‘esporre’ nella discussione, avrebbero votato diversamente da come lo hanno fatto nella votazione palese.
Ma già chiedere il voto segreto è segnale di ‘insubordinazione’, che potrebbe essere seguito dalle note ‘zombizzazione’ o ‘emarginazione’ dell’insubordinato. Per cui prevaleva il voto quasi’bulgaro’, anche in nome del principio che ‘non si sputa nel piatto dove si mangia’ (riporto fatti vissuti).
Questa mia esperienza convalida la teoria della riduzione della democrazia a forme vuote, la cui sostanza si discute e si decide informalmente e altrove, il che permette l’introduzione di altre considerazioni e di altri condizionamenti, non proponibili nelle sedi deputate alla discussione e alla delibera pubbliche e collegiali.
“Clearly, in so far as words convey information, they ought to be signed. Information is supposed to be true. That is its only reason for existing, and the man who gives it ought to sign his name, so that he may be called to account if he has told a lie”.
E.M. Forster, ‘Anonimity: An Inquiry’ (1925)
Sarà interessante vedere con quanta calma ed assenza di reazioni l’ Università italiana saprà digerire anche questa c….ta. Scusate per il turpiloquio appena mascherato dai puntini ma è difficile non chiamare le cose col loro nome.
Solo due punti banali banali tra i molti che vengono in mente:
1. Ai geniali ideatori anvur/miur di questa trovata andrebbe spiegato che, a differenza di altri ordini del sistema dell’ istruzione l’ università ha già un livello automatico di valutazione delle competenze in uscita: una laurea magistrale valuta in modo diretto o indiretto le competenze in entrata dei laureati che ci si iscrivono. Un concorso di ammissione al dottorato, fa lo stesso per i laureati magistrali. Non sono valutazioni standardizzate o su scala nazionale ? vedi punto 2. Pero’ ci sono. Non si poteva intervenire su questo livello di valutazione per renderlo utilizzabile ? Evidentemente sarebbe stato troppo facile e banale! O forse il problema è che questa non e’ una valutazione in grado di fornire statistica nazionali che sono l’ evidente finalità primaria della formazione universitaria?
2. Per nascere (o restare accreditato) un Corso di Studi deve partire da un progetto ed da un disegno generale che possono (e dovrebbero) tener conto delle richieste del territorio, come quelle di tutti i portatori di interesse coinvolti. Queste richieste possono dar luogo ad obiettivi formativi che, pur rispettando il riferimento comune della classe di laurea o laurea magistrale, possono differire alquanto da sede a sede. Ed è su questo che la tanto “salvifica” concorrenza tra sedi diverse dovrebbe basarsi. Una sede potrebbe decidere di privilegiare alcuni obiettivi rispetto ad altri. Anzi, in certo qual modo è incoraggiata a farlo. Ma ecco che arriva il test nazionale a richiedere un’ omologazione del non omologabile. Contraddizione ? Il mezzo scambiato per fine ? Evidentemente nessun dubbio sfiora la folta schiera di chi pensa che la valutazione “a prescindere” sia la soluzione di qualsiasi problema
Cosi’ poi, suffragati da tante belle statistiche, potremo dire, con una nota battuta, “la valutazione è riuscita ma la formazione universitaria è morta”.
A proposito di pensiero critico:
sarebbe interessante analizzare i commenti a questo post per verificare quanto alcune osservazioni riescano coerentemente ad argomentare (pro o contro) il contenuto delle affermazioni contenute nel post. Forse confermerebbe il risultato di Paul sui docenti americani.
A proposito di valutazione:
trovo alquanto bizzarro che – anche gli esperti – non abbiano chiaro che la valutazione è solo uno strumento e che tutto il dibattito può essere risolto semplicemente chiarendo quali sono gli obiettivi che si intendono perseguire con tale strumento. Se l’obiettivo è il miglioramento del sistema, come si addice a qualsiasi strumento di valutazione, allora lo strumento-valutazione deve essere disegnato per segnalare occasioni di miglioramento e, pertanto non può limitarsi a dare punteggi e graduatorie. Se l’obiettivo è quello di delimitare la distribuzione di risorse alle istituzioni che fruttano di più in termini economici, con buona pace del fine sociale e di crescita collettiva ed economica del paese, allora ben vengano le graduatorie ed i fondi premiali.
A proposito di anonimato:
immagino che i redattori di Roars abbiano discusso a lungo del trade-off tra anonimato e partecipazione, la scelta non è banale. Ciò non giustifica automaticamente il comportamento anonimo, soprattutto quando i commenti sono fermamente contrari alle opinioni espresse. Purtroppo non c’è scelta: un’opinione contraria ha valore solo se firmata, altrimenti è un gioco senza facce, un voto che non sarà mai espresso con una mano alzata, un desiderio nascosto, una ribellione monca. Detto in maniera molto cruda, è un’opinione che non conta.
Ps. Il post è ricco di “pensiero critico” e lo sollecita.
[…] Alessandro Ferretti, Lia Pacelli, Valentina Onnis and Giuliano Antoniciello, “Un’altra CLAva sta per abbattersi sull’università” , roars.it , aprile […]
[…] Repubblica” 7 Alessandro Ferretti, Lia Pacelli, Valentina Onnis and Giuliano Antoniciello, “Un’altra CLAva sta per abbattersi sull’università” , roars.it , aprile 2013 8 T. Deacon, “La specie simbolica”, Giovanni Fioriti Editore, […]
[…] del test CLA, finalizzato a misurare il “pensiero critico” dei laureandi (clicca qui per ulteriori informazioni sul test). Il 22 aprile scorso vi si è tenuto un incontro informativo […]
[…] dell’articolo di Kevin Possin sui difetti del test CLA (maggiori informazioni sul CLA qui) che l’ANVUR ha deciso di sperimentare sui laureandi degli atenei italiani nell’ambito […]
[…] all’uopo corsi e programmi.Come sempre, però, tra il dire e il fare c’è di mezzo il mare: il test presenta infatti enormi problemi, tanto che subito dopo le sue prime sperimentazioni negli Stati Uniti, è stato impallinato da […]
[…] sempre, però, tra il dire e il fare c’è di mezzo il mare: il test presenta infatti enormi problemi, tanto che subito dopo le sue prime sperimentazioni negli Stati Uniti, è stato impallinato da […]