Ma i test OCSE-PISA servono davvero? e cosa ci dicono. Ne discute un documento approvato dal Consiglio Scientifico dell’Unione Matematica Italiana.

Il Consiglio Scientifico dell’Unione Matematica Italiana ha approvato un documento di riflessioni sui risultati degli studenti italiani nella parte matematica dei test OCSE-PISA. L’UMI ritiene infatti opportuno utilizzare questa occasione per una riflessione su quanto è emerso nella passata edizione che vada al di là di un’impressione, o di un titolo, più o meno allarmistici, con l’obiettivo di individuare indicazioni significative per l’importante dibattito sulla formazione matematica dei nostri studenti.

Puntualmente ogni tre anni, in occasione della diffusione dei risultati della rilevazione internazionale OCSE-PISA (volta a testare le competenze degli studenti quindicenni in tre ambiti: Lettura, Matematica e Scienze), la matematica e il suo insegnamento guadagnano le prime pagine degli organi d’informazione con titoli d’effetto come … “Ocse, è un analfabeta matematico un ragazzo italiano su quattro”, “Troppi 15enni italiani asini in matematica” ecc. È successo recentemente anche con i risultati di PISA 2012, che ha avuto come ambito principale di rilevazione proprio la Matematica. Il dibattito che ne è seguito come sempre si è concentrato sulla comunicazione di alcuni risultati negativi particolarmente eclatanti e sulle possibili strategie per migliorarli.

L’UMI (Unione Matematica Italiana) ritiene opportuno utilizzare questa occasione per una riflessione su quanto è emerso nella passata edizione che vada al di là di un’impressione, o di un titolo, più o meno allarmistici, con l’obiettivo di individuare indicazioni significative per l’importante dibattito sulla formazione matematica dei nostri studenti.

Riteniamo che un contributo costruttivo a tale dibattito possa partire dal fare un po’ d’ordine nei temi che entrano in gioco, che sono tanti e vari, e spesso rimangono impliciti anche nelle discussioni più accese. Proviamo a individuarne qualcuno:

– C’è un dato per così dire ‘oggettivo’ che riguarda le risposte date dagli studenti italiani, ed il confronto di tali risultati con quelli di altri paesi.

In realtà qualsiasi rilevazione ha come oggetto solo alcuni aspetti dell’apprendimento della matematica. A leggere i documenti su cui si basano i test PISA, distillati ormai da circa vent’anni di esperienza e da successivi raffinamenti, appare evidente che l’idea di competenza matematica di cui l’OCSE si fa portatrice è alquanto sbilanciata sulla capacità di utilizzare la matematica nelle situazioni di realtà, o più precisamente in testi che simulano situazioni reali, piuttosto che su quella di astrazione e controllo di architetture logico-formali. Si può essere più o meno d’accordo su questa visione dell’obiettivo prioritario dell’insegnamento della matematica: sta di fatto che è la principale capacità ad essere rilevata da questi test, e dunque su questa si basano soprattutto le varie classifiche. Ne segue che un paese, come l’Italia, che, piaccia o no, nella sua tradizione culturale ha da sempre privilegiato la seconda visione, risulta penalizzato.

– Collegato a quanto detto sopra è il passo successivo, che spesso rimane implicito tanto viene considerato ovvio, cioè il valore che si attribuisce ai risultati dei nostri studenti.

Senza nulla togliere all’importanza di tale tipo di quesiti e soprattutto del saper utilizzare conoscenze matematiche per risolvere problemi reali, ci si può chiedere se l’obiettivo dell’educazione matematica si debba ridurre solo a questo, o se invece abbia senso puntare (e dunque opportunamente considerare nella valutazione) anche sul valore formativo e culturale, che consiste nello sviluppare nell’allievo un pensiero rigoroso e produttivo, spendibile in una incredibile varietà di situazioni, concrete o astratte. Naturalmente una posizione come questa apre nuove domande, piuttosto che dare risposte, ad esempio si pone la seguente questione: possiamo ancora sostenere, e su quali basi, che l’Italia in questo senso vanta una tradizione maggiore di altri paesi?

– Il miglioramento dei risultati a volte viene visto come un valore a sé, ma un intervento finalizzato semplicemente o soltanto a tale miglioramento ci vede molto scettici, in questo come in altri casi, perché ignora i possibili motivi di una mancata risposta o di un errore, concentrando l’attenzione sull’effetto piuttosto che sulle cause.

È invece solo a partire da un’accurata e approfondita riflessione sulle possibili cause, e quindi da un’interpretazione dei risultati, che ha senso valutare l’importanza degli stessi – in positivo o in negativo – e individuare strategie mirate di intervento.

– L’interpretazione dei risultati apre scenari estremamente variegati, che dipendono in modo significativo dalla visione che si ha della matematica e del suo insegnamento che si ha. Alcune di queste possibili interpretazioni possono essere fra loro compatibili, ma ognuna di esse suggerisce l’opportunità di ulteriori approfondimenti, e indica piste diverse d’intervento. Ecco alcune possibili interpretazioni:

  • Le prove PISA sono caratterizzate, come si è detto, da quesiti che intendono porre lo studente di fronte a problemi reali da risolvere. Gli studenti italiani non sono in genere educati ad affrontare problemi di questo tipo, e non solo gli studenti: da molte parti viene la raccomandazione a muoversi in un’ottica di maggiore collegamento con la realtà, ma spesso con esiti maldestri o addirittura comici, quando ci si limita a camuffare da situazioni concrete problemi matematici astratti.

  • Più in generale il fatto che le prove PISA rappresentino situazioni non note agli studenti suggerisce l’interpretazione che gli studenti italiani non siano abituati ad affrontare situazioni nuove: in particolare una pratica didattica appiattita sull’esecuzione di esercizi dello stesso tipo, in cui viene richiesta l’applicazione di formule precedentemente memorizzate, può avere come conseguenza la difficoltà o addirittura il rifiuto a priori di risolvere quesiti percepiti come diversi.

  • I quesiti PISA mettono lo studente di fronte a problemi ‘realistici’, e il passaggio dal ‘reale’ al ‘realistico’ presenta di per sé elementi di complessità che non si possono ignorare nell’interpretazione dei risultati, e che sono legati alla necessità di un testo o di rappresentazioni attraverso i quali comunicare all’allievo la situazione da risolvere. Questo pone in particolare il problema della comprensione del testo e addirittura della sua lettura. Studenti che abbiano sviluppato un atteggiamento nei confronti della lettura di un testo di matematica basato sull’individuazione dei dati numerici e di alcune parole o espressioni chiave si troveranno in notevole difficoltà di fronte ad un testo articolato, in cui le informazioni rilevanti dal punto di vista matematico pervadono il testo stesso.

  • Le prove PISA richiedono agli studenti un impegno i cui risultati non vengono valutati dall’insegnante: una pratica didattica che, al contrario, sia troppo centrata sulla valutazione, o comunque lo scarso valore attribuito alle prove possono spingere quindi l’allievo a prendere poco sul serio tale impegno.

In definitiva ci sembra che i risultati delle prove siano utili soprattutto a evidenziare possibili criticità e quindi a indicare direzioni in cui operare. Per contro, non è secondo noi per niente scontato che risultati positivi alle prove siano indice di un’educazione matematica di qualità. Riteniamo inoltre che per avere informazioni interessanti non ci debba limitare alla semplice analisi degli esiti delle prove, ma vadano presi in considerazione anche i questionari per la rilevazione delle variabili di contesto relative alla provenienza socio-economica, alle caratteristiche dell’indirizzo di studi seguito e alla motivazione nei confronti dello studio della matematica. Tali questionari prevedono anche alcune domande per rilevare le opinioni e gli atteggiamenti nei confronti della matematica e delle relative attività di studio.

Ci sembra meritevole di attenzione che alla luce di tutti i dati raccolti il rapporto OCSE concluda: “In Italy, the likelihood of low performance in mathematics is higher for students who are socio- economically disadvantaged, girls, speak a different language at home from the language of assessment, had no pre-primary education (or only a year or less of it), had repeated a grade and are enrolled in a vocational programme”.

A prescindere dalle possibili interpretazioni dei risultati si tratta di una conclusione importante, che meriterebbe interventi e investimenti altrettanto importanti, e un’attenzione continua da parte degli organi di informazione e dei decisori politici. In definitiva, riteniamo che una discussione serena ed efficace sui risultati degli studenti italiani nelle prove PISA debba tener conto dei seguenti aspetti:

– Qualsiasi test, per sua stessa natura, è in grado di accertare alcune competenze, ma non tutte: nel caso delle prove OCSE-PISA s’indaga più sulla capacità di risolvere problemi realistici o presunti tali che non su competenze logico-formali-argomentative.

– Di conseguenza, buoni risultati nei test non sono necessariamente indicatori delle molteplici capacità necessarie per essere o diventare un buon matematico, così come cattivi risultati non sono necessariamente indicatori di analfabetismo matematico o di mancanza totale delle suddette capacità.

In merito a questi due punti è nostra opinione che sia importante fornire agli allievi una molteplicità di strumenti sia di natura logico-formale sia di capacità applicative. Per raggiungere questo obiettivo è necessario però fare delle scelte oculate, evitando di sommergere gli studenti di nozioni e di opprimerli con compiti ripetitivi.

– In generale riteniamo che in un test diano più informazioni i risultati negativi che quelli positivi, se si accompagna l’osservazione della risposta mancata o scorretta con un’analisi attenta delle possibili cause. Tale analisi suggerisce che un fallimento può essere determinato da molti fattori, che non si escludono a vicenda e che possono anche essere trasversali rispetto alla matematica, quali ad esempio le competenze linguistiche.

– Appare quindi fondamentale che i risultati dei test non siano letti e diffusi in modo sbrigativo e superficiale, ma analizzati e interpretati in modo serio e scientifico affinché possano contribuire all’individuazione di difficoltà significative e dunque a suggerire eventuali interventi su tali difficoltà.

– Ci sembra importante sottolineare che il mero obiettivo di migliorare i risultati degli studenti nei test in questo come in altri casi non è significativo in sé, e anzi può produrre pratiche didattiche poco coerenti con gli obiettivi di un’educazione matematica di qualità.

– Per meglio accertare e per superare eventuali criticità evidenziate c’è bisogno di investire risorse, anche di tipo economico, mirate: il problema della qualità dell’insegnamento della matematica merita un’attenzione costante, in particolare per riuscire ad offrire le stesse opportunità a tutti gli studenti e a ridurre i fenomeni di dispersione che penalizzano i singoli e la nostra società.

(Fonte: http://maddmaths.simai.eu/comunicare/comunicati-stampa/documento-di-riflessione-dellunione-matematica-italiana-sui-risultati-ocse-pisa-2012/)

Send to Kindle

6 Commenti

  1. Chiaramente esiste un “bias” di fondo in questi test, che sono stati prodotti da una multinazionale come la Pearson https://www.pearson.com/news/announcements/2014/december/pearson-to-develop-pisa-2018-student-assessment-21st-century-fra.html
    il cui metro di giudizio è basato su una maggiore o minore aderenza ai prodotti educativi che questa società commercializza. Esiste un quasi monopolio di questa società, nei paesi anglosassoni, nel medio oriente e in America Latina, l’espansione in Italia è stata limitata dalla barriera linguistica e da una radicata tradizione diversa. Un articolo del Guardian ha sollevato seri problemi sul ruolo della multinazionale sui sistemi educativi
    http://www.theguardian.com/education/2012/jul/16/pearson-multinational-influence-education-poliy
    Un metro chiaro di giudizio è il livello penoso degli undergraduate students inglesi in matematica rispetto ai loro coetanei italiani, tanto che le migliori graduate schools inglesi preferiscono poi arruolare massicciamente studenti che sono stati formati in sistemi educativi non anglosassoni.
    Un ultimo commento riguarda l’insegnamento della matematica nella scuola italiana, dove si fa troppo uso di persone non laureate in matematica o in fisica, quindi con una scarsa preparazione disciplinare. Altro errore grave è non separare nelle scuole medie inferiori l’insegnamento delle scienze naturali da quello della matematica, in un momento cruciale per la formazione.

  2. Ennesima conferma della tesi, sostenuta nel libro “Strategie assurde” di un’economista francese, che i test servono a imparare a fare i test, cioè non a fotografare, ma a indirizzare. Volete fare bella figura al test? Insegnate e apprendete la matematica che vi farà fare bella figura al test.

  3. condivido anch’io in toto articoli e commenti: sarebbe ora di dare la sveglia anche alle scuole dove imperversano, con la complicità dei dirigenti scolastici e l’apatia di molti docenti, gli altrettanto famigerati e totalmente sprovvisti di validità scientifica TEST INVALSI!

  4. Sono molto contento che l’UMI si pronunci sui test PISA, che esistono dal 2000, ma meglio tardi che mai. Nel documento si parla di PISA 2012, per cui non è corretto attribuire responsabilità a Pearson, che entrer° in campo per PISA 2018 (come si legge anche nel link indicato). PISA 2012 e le edizioni precedenti non sono stati fatti da Pearson. Di conseguenza le riflessioni che vengono dopo non hanno senso. Tornando al documento UMI è comunque un saggio tentativo di riflessione, che però trascura alcune evidenze, note a chi i dati PISA li legge senza pregiudizi e forzature. Per esempio l’accenno alla necessità di leggere, per rispondere alle domande. Il che evidentemente ci penalizza (siamo tra i maggiori non rispondenti, cioè lasciamo in bianco). Però la lettura è ormai considerata da tutti una competenza di base che tutti gli insegnanti (comeprsi quelli di matematica) dovrebbero coltivare, ognuno nel suo ambito specifico. Poi l’UMI non osserva che la maggior parte dei quesiti di PISA NON sono quiz a crocette, ma domande aperte, che richiedono quindi di scrivere, e scrivere è come lettura sopra…. Infine (ma ci sarebbero tonnellate di cose da dire) l’UMI ignora (forse non lo sa ancora) che in PISA 2012 gli stessi nostri student hanno fatto un figurone nelle domande di Problem solving. Il che vuol dire che non sono “stupidi” rispetto ai test, ma che esistono dei problemi specifici per la matematica (e in misura inferiore per scienze e lettura). E non tiriamo fuori i test invalsi che sono tutt’altra cosa.

  5. Tutti i test effettuati una sola volta danno risultati che vanno presi con le pinze. Infatti a scuola si fanno più verifiche nel corso dell’anno.
    I test OCSE-PISA avranno i loro limiti, basarsi fortemente su situazioni realistiche può essere opinabile, ma qualcuno pensa davvero che uno studente “bravo in matematica pura” (diciamola così, non credo di dovere spiegare che significa) non sappia poi applicarla a un caso concreto? E se così fosse, a che gli è servito studiare la matematica, dimostrare teoremi, sviluppare calcoli, se poi, messo di fronte a una situazione reale non sa che pesci prendere? Si dimentica sempre che gli alunni non sono “matematici in erba” (o “fisici in erba”, ecc.); non lo erano 30 anni fa, quando ero alunno, lo sono ancora meno oggi che sono docente al liceo.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.