In pieno spirito natalizio, tenendo fede alla parola data durante la primavera scorsa, l’INVALSI lancia il suo ultimo progetto, Percorsi e Strumenti INVALSI, per “aiutare concretamente le scuole”, ad “individuare al più presto carenze o perdite di apprendimento (learning loss) dovute anche alla pandemia”.  La “valutazione non è un lusso dei tempi agiati”, ci insegna l’Istituto INVALSI, e se la scuola rischia di “perdere l’anima” in emergenza, schiacciata da problemi logistici e sopraffatta da paure contingenti, l’INVALSI ha già pronta la sua cura. Test formativi “ad uso locale”, aggiuntivi e su base volontaria, in Italiano, Matematica e Inglese; oltre ad un catalogo di risorse informative e buone pratiche, curate dagli esperti INVALSI per tutti gli insegnanti. Un progetto utile per capire “come si parte” e non solo “dove si arriva”. Nell’universo scolastico visto dalla lente INVALSI, il dove si arriva, è stabilito dal test standardizzato primaverile.  I nuovi test formativi, ora, assumendo come dato di partenza gli esiti delle prove obbligatorie, condurranno gli insegnanti lungo la direzione guidata dagli indicatori e dalle misure INVALSI. E’ l’istituto di valutazione, oramai, a definire  il modo giusto di misurare i traguardi -molto ampi – delle Indicazioni Nazionali, intestandosene l’interpretazione autentica, stabilendo i livelli di adeguatezza delle competenze degli studenti e formulando gli items che consentono di misurarle. Adesso, sempre l’INVALSI suggerirà le piste preferenziali per giungere a quei traguardi, grazie ai nuovi test formativi e al materiale di formazione per gli insegnanti. Una sorta di teaching to the test ufficiale e ben confezionato, spacciato per aiuto e supporto alle scuole, incapaci di fare da sole. 

 

———

L’approfondimento sul tema dei nuovi test formativi è suddiviso in due parti. 

Nella prima si presenta e discute il progetto “Percorsi e striumenti INVALSI, sulla base dei materiali informativi elaborati e pubblicati sui siti istituzionali dell’Istituto di Valutazione.

Nella seconda si affronta il nodo centrale del progetto: l’ossimoro test formativo-standardizzato.

 

—————

Dal vocabolario Treccani:

aiutare [..] v. tr.– 1.  Prestare ad altri la propria opera in momenti di difficoltà o per cose che non sarebbero capaci di fare da soli.

———-

In pieno spirito natalizio – nonostante i tempi che corrono – e tenendo fede alla parola data nella primavera scorsa, è in arrivo l’ultimo progetto dell’Istituto di Valutazione INVALSI. Obiettivo: “aiutare concretamente le scuole ”, ad “individuare al più presto carenze o perdite di apprendimento (learning loss) dovute anche agli effetti della pandemia”.

Si tratta del progetto “Percorsi e Strumenti INVALSI”: test aggiuntivi, da svolgersi su base volontaria da novembre a gennaio, con precise modalità di somministrazione e per determinati gradi scolastici. Le discipline sono sempre le stesse: Italiano, Matematica e Inglese. Le classi coinvolte: terza primaria, prima secondaria di primo grado, prima, terza e quinta secondaria di secondo grado. Gli studenti interessati sono dunque quelli frequentanti le classi immediatamente successive a quelle in cui gli studenti svolgono i test INVALSI censuari e obbligatori, che restano programmati per la prossima primavera.

Alle prove vere e proprie – cartacee per i bambini di 8 anni, computerizzate (Computer Based Testing) per i ragazzi di 11, 14, 16 e 18 anni – sarà affiancato “un catalogo di risorse curate dell’INVALSI”, indirizzato ai docenti e costituito da: “video formativi e informativi ed esempi di Buone pratiche”, “link e riferimenti per approfondire”, “materiali da consultare anche successivamente alla visione dei video”.

Tale catalogo di “occasioni formative” per gli insegnanti, spiega l’INVALSI,

parte dai dati INVALSI per trattare uno o più ostacoli all’apprendimento, suggerisce spunti di riflessione e proposte didattiche per affrontare quei particolari nodi, fornendo esempi e materiali”.

Si tratta di far comprendere ai docenti, insomma,

come esse [le prove  INVALSI obbligatorie] sono costruite, come si legano alle Indicazioni nazionali e ai traguardi in esse previsti e, soprattutto, come possono essere di aiuto per monitorare il miglioramento degli studenti”.

I nuovi test, che l’Istituto chiama “formativi”, non sostituiscono le prove standardizzate in ordinamento, che dunque conservano anche il valore certificativo a fine ciclo, seppur in piena emergenza. Sono, piuttosto:

nuove soluzioni che vanno ad affiancare, accompagnandole e non sostituendole, le Prove di fine periodo, pensate e disegnate per verificare il raggiungimento di alcuni traguardi (..) previsti”.

 

1. La retorica del test INVALSI come pharmacon

Il nuovo progetto di “test formativi” non rappresenta quindi un ripensamento dell’impianto di prove standardizzate sollecitato dall’assoluta eccezionalità storica del periodo attuale. Al contrario. La situazione emergenziale è sì un’opportunità, ma un’opportunità di guadagnare ulteriore terreno di consenso nel dibattito pubblico, politico, e scolastico.

L’ultimo editoriale dell’ex direttore generale INVALSI,  Paolo Mazzoli, offre sostegno a tale interpretazione, mettendo bene in prospettiva l’impianto retorico dell’operazione, nel cui merito entreremo meglio nella seconda parte della riflessione.

L’Autore ci esorta:

e ci offre il suo punto di vista esterno, ma ugualmente appassionato:

Il cataclisma Covid- 19 si è abbattuto sulla scuola esacerbandone le contraddizioni, inasprendo odiose disuguaglianze e carenze. Le sta togliendo l’anima, scrive l’INVALSI, sottraendola alla sua missione, che ciascun insegnante conosce e che– correttamente – l’Istituto rimanda ai principi fondamentali della nostra carta costituzionale.

Qual è l’anima della scuola? La sua “missione educativa”, certamente.

Proprio in questo senso, continua l’Autore:

L’analisi dell’INVALSI sembra dunque essere questa:

i dirigenti e gli insegnanti sarebbero preda  – inevitabilmente, ci rassicura l’INVALSI: non c’è dolo, insomma.. – di questioni di ordine superiore: logistico, sanitario, organizzativo; questioni che per alcuni, purtroppo, possono sconfinare in manifestazioni di tipo psicologico, a tratti patologico (“malattie”, “modo ossessivo”).

Gli insegnanti non hanno tempo ed energie psichiche sufficienti per potersi dedicare col dovuto impegno a questioni di tipo didattico.  Ed è qui che entrerebbe in gioco l’opportunità offerta dal nuovo progetto Percorsi e Strumenti INVALSI.

La cura, il nuovo “pharmacon” valutativo prodotto dall’INVALSI, è pronta: altri test standardizzati, ma stavolta nella veste “formativa” e da svolgere su base “volontaria”[1].

D’altra parte, ci ricorda l’Autore, la valutazione standardizzata non è “un lusso per i tempi agiati”. Se l’anno scorso la contingenza ci ha sottratti ai test, è stato chiarito fin da subito che quest’anno la musica sarebbe cambiata. Accanto al calendario già predisposto delle prove primaverili, l’INVALSI ha elaborato un set di nuove prove diagnostiche e un pacchetto “chiavi in mano” di contenuti formativi con tanto di buone pratiche da implementare. Sembra più chiaro, ora, a cosa si riferisse l’esortazione a non perdere la nostra anima.  L’anima della scuola, per l’INVALSI, sono i test INVALSI.

 

2. I nuovi test “formativi”

Ma come si presentano questi nuovi test formativi, a detta dell’INVALSI

caratterizza[ti] per la loro flessibilità e possibilità di essere adattati liberamente dalle scuole per far fronte alle proprie esigenze”?

 

a) Segretezza vs trasparenza

Innanzitutto, ci rassicura l’INVALSI, non saranno “rigorosamente segreti” come quelli ordinari.

Da quando, infatti, con la Buona Scuola, lo svolgimento dei test INVALSI – svolti al computer e corretti in maniera centralizzata– è diventato requisito di ammissione all’esame di stato (fine primo e secondo ciclo) e ha assunto valore di certificazione delle competenze, il contenuto dei test, ovvero i quesiti che gli studenti svolgono ogni anno, è del tutto ignoto. A chiunque: insegnanti e  famiglie.

Quando sentiamo parlare di “restituzione alle scuole” dei dati raccolti dall’INVALSI, dunque, –  ad esempio in un momento cruciale del percorso scolastico come quello dell’Esame di Stato – dobbiamo aver ben chiaro di cosa si tratti. Quella restituzione, di cui tanto ama parlare l’Istituto, alimentando l’immaginario secondo cui la valutazione standardizzata non lavorerebbe sulle scuole ma per  le scuole – non è altro che la “consegna” di elenchi di punteggi corrispondenti ad una scala di livelli elaborata dall’INVALSI (da 1 a 5), ciascuno associabile ad uno studente tramite specifico codice numerico (codice SIDI).

 

L’insegnante che desiderasse capire o riflettere su contenuti e processi attivati dai suoi studenti durante il test, o semplicemente rimettere i ragazzi alla prova, smontando e rimontando gli items, riadattandoli al contesto, per renderli didatticamente significativi e comprenderne il senso, non ha alcun modo di risalire ai quesiti svolti. Né alcun controllo sugli esiti ottenuti.

La grande macchina centralizzata INVALSI attribuisce ad ogni performance un esito da 1 a 5, senza che si possa sapere come (contenuti dei test), né controllare perché.

Certamente l’Istituto rende pubblica una cospicua mole di materiale informativo sui suoi siti istituzionali: descrizione dei livelli di certificazione, quadri di riferimento, esempi (pochi) delle nuove prove (CBT  – computer based), rapporti finali e approfondimenti normativi.

Ma invitiamo il lettore “medio” –insegnante o anche studente – a misurarsi con la lettura della documentazione prodotta e a chiedersi: quanto queste centinaia di pagine mi aiutano a comprendere dove e cosa è stato sbagliato, nel test che ho dovuto “somministrare” o svolgere?

Le uniche informazioni che chiunque possa trarre dai punteggi riportati in figura sono di tipo “classificatorio”: quanti livelli 1/2/3…  ho nella mia classe? Come mai lo studente tale ha ottenuto un punteggio tale? Esiste – ma ha un qualche senso? – una correlazione tra livelli di discipline diverse? Come sono andati gli studenti della classe accanto? Chi ha accumulato più punteggi di eccellenza nella scuola?

Pensare di fare una riflessione di tipo didattico, che attivi riflessioni e processi per retroazione, a partire dai dati associati ad items di cui si ignora il contenuto, è assolutamente privo di senso per un insegnante.

Da questo punto di vista i test formativi rappresenteranno una novità.

Certo, anziché mettere in piedi un progetto con tanto di test aggiuntivi, sarebbe stato auspicabile quanto meno rendere trasparente il materiale dei test INVALSI obbligatori. Ma ciò non è stato fatto.

 

b) Flessibilità e libertà: si, ma fino a un certo punto

 

L’INVALSI dichiara che metterà a disposizione  un

repertorio di prove formative dal quale ciascuna scuola, se lo vuole, può trovare strumenti per la valutazione formativa e per la raccolta di informazioni sulla classe”.

In particolare, per la prima volta si proporranno anche “prove adattive” computer based in Italiano, ovvero test composti da items differenti a seconda delle risposte via via fornite dagli studenti.

Questi nuovi test, tuttavia, non saranno semplicemente resi pubblici e liberamente fruibili da ciascuna scuola quando e come meglio crede[2],  come potrebbe sembrare da ciò che leggiamo nelle varie presentazioni del progetto.

I test formativi saranno elargiti alle scuole che aderiranno al progetto secondo le indicazioni di un dettagliato manuale operativo.

Per accedere al materiale “formativo” ed utilizzarlo nella propria progettazione didattica quotidiana, dunque, bisognerà cominciare col dichiarare la propria adesione al progetto, accreditandosi come “Docente Formative Testing”, con tanto di codice fiscale e lettura dell’informativa privacy.

Solo a quel punto si avrà accesso all’”area riservata”[3], all’interno della quale poter gestire la somministrazione telematica o cartacea (per i bambini di 8 anni, terza primaria), sia a singoli studenti che a gruppi, per i quali saranno inserite credenziali di riconoscimento.

Da lì in avanti, si potrà (finalmente) avere accesso ai contenuti delle prove “formative” standardizzate, con relativi materiali di accompagnamento[4].

I test “bene pubblico” messo a disposizione dall’Istituto, di cui ha parlato il Responsabile Area prove in occasione della presentazione del progetto, sono dunque  “pubblici” solo per chi aderisce ed è accreditato.

La restituzione dei dati relativi ai test “somministrati” sembra assai dettagliata: per studente o gruppo, per domanda, per “strumento”, classificati per “difficoltà”, o altri elementi. Tutte le varie operazioni possibili all’interno del progetto saranno ovviamente visibili non solo al Docente Formative testing, ma anche al Dirigente Scolastico.

Capiamo bene, dunque, visto il quadro organizzativo, che quando l’INVALSI parla di: “flessibilità”, di “adattabilità al contesto”, di “modalità stabilità dall’insegnante”, si tratta di libertà e adattabilità ben controllate, nonché inquadrate in un preciso setting didattico.

 

c) “Formativi” per cosa?

 

La funzione di questi nuovi test “formativi” è spiegata ancora una volta in maniera molto semplice dall’ex  direttore  Mazzoli. Nel suo più recente editoriale, già citato,  il dirigente li definisce “prove INVALSI ad uso locale”.

Un po’ come le preparazioni farmacologiche ad uso topico:  dobbiamo immaginare che se il test INVALSI censuario è il Farmaco Valutativo per il Sistema-Scuola ammalato,  il nuovo test “formativo” è una Farmaco ad uso locale. E potrà essere utile per capire “come si parte” e non solo “dove si arriva”.

 

 

Anche la Presidente dell’INVALSI, nel recente webinar di presentazione del progetto, ribadisce la funzione formativa in termini di  “prima/dopo”:

L’INVALSI, proprio mediante la quantità di prove che fa regolarmente [..] dispone ormai da molti anni di una mole di dati che ci fa riconoscere quali sono gli ostacoli, le difficoltà e gli errori più frequenti che gli studenti incontrano quando rispondono alle prove.

Proprio la possibilità di disporre di dati censuari così analitici, ci fa riconoscere non soltanto le domande giuste rispetto a quelle sbagliate, come è ovvio, ma anche rispetto a quelle sbagliate, la tipologia degli errori che gli studenti fanno.

[..]

 i nostri docenti esperti, ovvero I docenti che collaborano alla stesura delle prove, spiegano le ragioni degli errori e a partire di questi propongono itinerari didattici con annessi due tipi di prove: una prova da usare all’inizio dell’itinerario proposto e una prova finale.

Questo fatto rende l’itinerario di per sé abbastanza utile per verificare l’acquisizione finale degli studenti con un prima/dopo.”

Nell’universo scolastico visto dalla lente INVALSI, il dove si arriva è stabilito dal test standardizzato primaverile e obbligatorio. Ma finora non era ancora stato definito da dove si parte.

In sintesi, potremmo dire: i nuovi test formativi INVALSI (e tutto il materiale “informativo” a corredo) assumono come dato di partenza gli esiti delle prove standardizzate e conducono gli insegnanti lungo la direzione guidata dagli indicatori e dalle misure INVALSI.

Quindi:

  • l’INVALSI definisce il modo giusto di misurare i traguardi, ampi, delle Indicazioni Nazionali, intestandosene l’interpretazione autentica, stabilendo i livelli di adeguatezza di tale competenza o di talaltra; e formulando gli items che consentono di misurarle.
  • E sempre l’INVALSI, ora, suggerisce le piste preferenziali per  giungere a quei traguardi, attraverso test “formativi” e materiale di formazione per gli insegnanti.

Una sorta di teaching to the test “ufficiale” e ben confezionato, spacciato per aiuto e supporto alle scuole, incapaci di fare da sole[5] .

I nuovi “Formative test” elaborati dall’INVALSI, insomma, sembrano formativi per il superamento dei test INVALSI obbligatori.

Sono vestiti nuovi, ma l’Imperatore è sempre lo stesso.

 

 

————————————–

[1] Le virgolette sono d’obbligo, in entrambi i casi. Sul termine “formativo”, chiariremo poi. Sul termine “volontario” basta fare riferimento al passato e ai tanti progetti “pilota” partiti sulla base della libera scelta e poi diventati prassi e norma ovunque. Per qualche riferimento: R. Puleo: “Valutare senza INVALSI si può”, Ed. Anicia, 2018.

[2] Il repertorio “genstinv” ( https://www.gestinv.it/Index.aspx ) non assolve a questa funzione. Il database di items può essere anche molto utile per ragionare su singoli quesiti, tratti dalle prove passate (fino al 2018) e riadattati al proprio contesto; ciò è cosa ben diversa dal poter ragionare ex post sulla prova appena svolta dai propri studenti.

[3] Vedi Manuale per l’uso degli strumenti formative testing, pag. 7.

[4] Ivi, pag. 13.

[5] Vedi definizione Treccani in apertura.

Send to Kindle

7 Commenti

  1. Mi spiace leggere un attacco così veemente basato su molte opinioni e nessun fatto. ROARS ha svolto un ruolo fondamentale nel fare fact-checking su tante vicende, esemplare l’attenzione alla valutazione in università. Chi cerca articoli caratterizzati da pre-giudizio ha tanti altri blog in cui stare. Spiego il mio disappunto sul tema di queste prove Invalsi.
    Viviamo in un Paese che coltiva ranking di ogni tipo, da Eduscopio alle gare dei ranking universitari. Il fatto che Invalsi in questi anni abbia orientato la sua attività per allontanare l’idea della competizione tra scuole, della classifica per identificare i “più bravi”, non è irrilevante: pensiamo al concetto di valore aggiunto, ad esempio.
    In questi mesi, lo sforzo straordinario degli insegnanti e delle scuole ha tenuto in piedi la didattica in questa emergenza: nessuno però si è occupato di offrire dati sugli esiti di apprendimento, ciascuno si è dovuto arrangiare. E quando ci si deve arrangiare, soprattutto in emergenza è noto che chi sta meglio se la cava, mentre chi è in difficoltà viene sommerso. L’insegnante che non vuole usare “anche” questa risorsa Invalsi per misurare le possibili difficoltà in alcuni apprendimenti, non la usi. Però, come cittadino, vorrei che spiegasse allora quali altre risorse utilizza, di quale validità e affidabilità. Perché se non ho dati per capire (su base territoriale, non della singola classe) affidabilmente quali studenti e studentesse hanno pagato un prezzo maggiore, non posso allocare preferenzialmente su di loro le risorse e dunque commetto una ingiustizia sociale.
    Nelle emergenze, non c’è mai una risposta unica. Anzi, il ricorso a più risorse diverse è un vantaggio. Ma scegliere quali risorse usare sulla base di chi te le offre – e non del bilancio costi/benefici – non mi sembra una operazione utile.

    • Grazie al professor Depolo per il commento, al quale provo a rispondere per punti:

      Mi spiace leggere un attacco così veemente basato su molte opinioni e nessun fatto. ROARS ha svolto un ruolo fondamentale nel fare fact-checking su tante vicende, esemplare l’attenzione alla valutazione in università. Chi cerca articoli caratterizzati da pre-giudizio ha tanti altri blog in cui stare. Spiego il mio disappunto sul tema di queste prove Invalsi.

      1) Il post oggetto del commento analizza criticamente la documentazione di accompagnamento (editoriali, articoli, video-contributi) al progetto Percorsi e Strumenti INVALSI. Tale documentazione (allegata o citata) non costituisce un “fatto”, cui si oppongono “opinioni”.

      Viviamo in un Paese che coltiva ranking di ogni tipo, da Eduscopio alle gare dei ranking universitari. Il fatto che Invalsi in questi anni abbia orientato la sua attività per allontanare l’idea della competizione tra scuole, della classifica per identificare i “più bravi”, non è irrilevante: pensiamo al concetto di valore aggiunto, ad esempio.

      2) Non ci risulta che l’INVALSI abbia svolto un’attività nel senso indicato: “allontanare l’idea della competizione tra scuole”, “della classifica per identificare “i più bravi”.

      Esistono, invece, diverse prove empiriche ( =legate all’esperienza dei diversi contesti scolastici) che l’uso sempre più massiccio dello strumento del test standardizzato, incardinato in un impianto ben più ampio di valutazione di sistema (RAV, PDM, valutazione dirigenti etc), insieme alle recenti trasformazioni in senso manageriale dell’organizzazione scolastica, abbiano al contrario acuito proprio quegli aspetti competitivi che l’Autore richiama. Alcuni esempi di seguito:

      a) Un atto di indirizzo per la stesura del PTOF (piano triennale Offerta formativa) di una scuola qualunque, di una città qualunque: come si nota, gli esiti ai test condizionano la definizione degli obiettivi educativi di istituto.

      b) Esempi di siti web di alcune scuole (di ogni ordine e grado), che evidenziano il ranking negli esiti test per attrarre iscritti.

      c) Esempi (pochi fra tanti) di corsi o strumenti per allenare gli studenti ai test (“palestre digitali”).

      d) Esempi di criteri di attribuzione del “bonus merito” istituito dalla Buona Scuola (reperibili in rete, sui siti istituzionali di istituti qualunque …) assegnato dal dirigente ai docenti in funzione degli esiti ai test INVALSI

      e) Obiettivi dirigenziali assegnati ai dirigenti ccolastici dai Dirigenti degli uffici regionali ( vedi ad es. http://www.istruzioneveneto.it/wpusr/trasparenza/dirigenti-scolastici-incarichi-venezia)

      Tali manifestazioni, lungi dall’essere attribuibili ad un “errato o distorto impiego dello strumento test INVALSI “, che si supporrebbe “neutro”, da parte delle scuole, sono ben indagate da una letteratura ormai ampia e consolidata, che studia gli effetti dell’impiego di dispositivi di valutazione standardizzati all’interno di una comunità professionale.

      In questi mesi, lo sforzo straordinario degli insegnanti e delle scuole ha tenuto in piedi la didattica in questa emergenza: nessuno però si è occupato di offrire dati sugli esiti di apprendimento, ciascuno si è dovuto arrangiare. E quando ci si deve arrangiare, soprattutto in emergenza è noto che chi sta meglio se la cava, mentre chi è in difficoltà viene sommerso. L’insegnante che non vuole usare “anche” questa risorsa Invalsi per misurare le possibili difficoltà in alcuni apprendimenti, non la usi. Però, come cittadino, vorrei che spiegasse allora quali altre risorse utilizza, di quale validità e affidabilità. Perché se non ho dati per capire (su base territoriale, non della singola classe) affidabilmente quali studenti e studentesse hanno pagato un prezzo maggiore, non posso allocare preferenzialmente su di loro le risorse e dunque commetto una ingiustizia sociale.
      Nelle emergenze, non c’è mai una risposta unica. Anzi, il ricorso a più risorse diverse è un vantaggio. Ma scegliere quali risorse usare sulla base di chi te le offre – e non del bilancio costi/benefici – non mi sembra una operazione utile.

      3) Qui, come ormai pare prassi consolidata nel dibattito pubblico sull’uso dei test INVALSI, si attribuisce all’INVALSI lo statuto di unico ente accreditato a produrre dati oggettivi sulla scuola, addirittura comparabili “su base territoriale”. Tali dati sembrerebbero un “diritto” del cittadino qualunque o una necessità del decisore politico.

      Il registro adottato è quello ormai ben noto e basato sul binomio: equità/oggettività.

      Il test INVALSI uguale per tutti e somministrato a tutti sarebbe uno strumento di giustizia sociale di per sé. Ecco perché test censuari anziché campionari. Ed ecco perché test con valenza di certificazione delle competenze. I test sarebbero dunque necessari nella lotta contro le diseguaglianze, cui dovrebbero seguire interventi misericordiosi (che puntualmente non avvengono) nei confronti di chi è rimasto indietro.

      In parallelo al registro dell’uguaglianza, si snoda l’”intimidazione matematica”. Le metafore dei test come “fotografia” della realtà e del “termometro” (o addirittura come misura della percentuale di colesterolo nel sangue) si sprecano.

      Recentemente, Jerry Mueller (e non solo) ha raccontato in dettaglio come proprio queste parole chiave abbiano favorito il permanere, negli USA, dell’uso dominante delle metriche e delle relative distorsioni nel lungo periodo: introdotte da Bush con il No child Left Behind Act, sono entrate sostanzialmente immutate nel Every Student Succeeds Act di Obama.

      Lo stesso sta accadendo in Italia, come più volte Roars ha documentato.

      Anche il progetto dei Test Formativi, che dovrebbero rappresentare un utile strumento di misura degli apprendimenti per “chi è rimasto indietro”, viene letto in quest’ottica: spetterebbe dunque al docente che decide di non utilizzarli l’onere di dimostrare “cosa e come” ha misurato tale “learning loss”.

      E’ evidente che tale punto di vista parte dal pre-giudizio, o se si preferisce da pre-supposto, che i giudizi professionali di noi docenti – giudizi esercitati sulla base della nostra esperienza, della conoscenza del contesto e in uno sfondo di criteri negoziati e condivisi nella comunità collegiale, non hanno oramai più alcun valore o significato (“validità”, “affidabilità”).

      Sono questi i frutti di oltre un decennio di egemonia culturale organica, tenace e indiscussa, che ha ormai permeato il senso comune diffuso.

  2. Una breve riflessione a quanto scritto da Marco Depolo.

    Provo a fare luce sugli assunti impliciti delle sue parole. Perché tutti, quando affermiamo qualcosa, ne abbiamo. Nessuno, come scriveva Foucault, può parlare al di fuori di un “discorso”, ovvero “un insieme controllato, selezionato, organizzato e distribuito tramite un certo numero di procedure che hanno la funzione di scongiurare i poteri e i pericoli, di padroneggiarne l’elemento aleatorio, di schivarne la pesante, temibile materialità” (M. Foucault, L’ordine del discorso, Einaudi, Torino, 1972, p. 5), ovvero tutto ciò che può metterlo in discussione.
    Vediamo gli elementi del discorso di Depolo.

    I dati: sembrano la cosa più neutra, più oggettiva. Ma così non è. Essi prendono forma in base allo strumento con cui li si raccoglie, li si elabora, li si vuole rendere evidenti. Perché ogni dato che emerge ne porta altri reconditi, non detti.
    Naturalmente si parla di dati solo dopo l’assunto che tutto è misurabile, anche il fatto umano, ovvero l’apprendimento, la formazione di un uomo. Sempre tutta visibile, quantificabile e catturabile nelle reti a strascico dei rilevatori? Anche quegli elementi che emergeranno nel futuro?

    La figura dell’insegnante: un burattino che deve essere costantemente guidato, dalle forme più spinte fino al più leggero “nudging” (cfr. il Rapporto “La buona scuola. Facciamo crescere il Paese” del 03/09/2014). A questo punto sono chiare le parole dell’intervento di Angelo Farina sulla concezione del docente: “la didattica a piccoli bocconi facili e “pre masticati” non è esclusiva dell’e-learning, e viene usata da decenni in tutti gli ambiti, inclusa la didattica “tutta in presenza”.
    E’ un approccio molto pragmatico sviluppato primariamente negli USA, ed in due settori assai lontani dal mondo accademico: da un lato la formazione del personale in aziende che praticavano la vendita porta a porta (aspirapolveri, detergenti per la casa, profumi).
    Dall’altro la didattica nei corsi per subacquei, sviluppata in particolare dalla agenzia PADI, la prima dichiaratamente finalizzata al profitto.
    Questo metodo si è via via evoluto, ne sono stati studiati e perfezionati gli aspetti psicopedagogici e comportamentali, e ne è stata dimostrata l’efficacia nel “plasmare” gli allievi secondo un ben preciso profilo: di fatto, anziché renderli davvero competenti della materia, essi vengono addestrati a comportamenti standardizzati e corretti, che fanno si’ che sappiano agire nel modo pre-programmato di fronte ad una serie di situazioni standard.
    Al di fuori di tale addestramento, l’allievo è totalmente impreparato, ma è anche conscio di ciò. E pertanto tornerà dalla agenzia didattica di cui sopra, che così gli venderà a caro prezzo un ulteriore corso fatto di pillole di sapere (o saper fare, spesso senza nemmeno spiegare il perché). https://www.roars.it/online/grandi-opportunita/comment-page-1/#comment-72847 . Ciò si può estendere anche all’attuale concezione di insegnante.
    Al contrario un insegnante autonomo sa (con tutti gli errori del caso da cui nessuno è esente, nemmeno i dati “oggettivi”) chi non ha appreso. Perché gli elementi per capire non sono i dati e un insegnante presente di questi elementi ne raccoglie in abbondanza; in prima persona e col dialogo/confronto.

    Il cosiddetto utente: il quale pretende spiegazioni sul perché sia stato scelto un modo anziché un altro. Uno scenario oggettivato in cui manca la fiducia nel docente e nella sua libertà di insegnamento. Perché l’accountability ha due facce. C’è quella verso il docente (quella comunemente intesa) ma anche quella verso il genitore che parla. Non tutti hanno lo stesso peso. Altrimenti perché no il camionista senza titolo di studio in università e lo studioso a guidare il camion? La sostituibilità è possibile solo nello spezzettare “le scatolette della nostra vita, tutte stupide e uguali” e perciò sostituibili, con il docente che deve giustificarsi con chi giustamente fa altro nella vita e permette al docente di comprarsi ciò di cui ha bisogno.

    Il prezzo: il criterio costi/benefici pone già il discorso educativo al di fuori dell’ambito umano, traslandolo in una concezione economicista nella sua variante riduzionista. Ciò esclude il fine, preferendone l’efficacia e l’efficienza su finalità accettate acriticamente e date surretiziamente dai dati misurati (inversione mezzi-fini). Tutto ciò disvela una razionalità strumentale che ha ben a cuore la formazione di un certo modello umano. E ne esclude a prescindere un altro.

    Ogni discorso (anche quello che sta alla base del mio intervento) si può perciò misurare in base al grado di difesa dei suoi assunti. E un buon metro di misura è il grado di libertà con cui è impastato. Da qui la sua giustizia, asintotica, verso tutti proprio in virtù del minor tasso di esclusione di elementi. In ambito umano e culturale è sempre preferibile il coefficiente minore di esclusione (per dirla secondo i termini pseudo matematici dominanti, ovvero parlando la stessa lingua della chiusura per renderla evidente e così neutralizzarla).
    Senza mai rivendicare una inesistente quanto fallace neutralità. Che non esiste.

  3. I test sono pericolosi se fatti o usati male ma sono assolutamente necessari nella lotta contro le diseguaglianze: si tratta di confrontare competenze, giudizi soggettivi, deformati dal contesto e offuscati da negoziazioni in comunità collegiali poco inclini all controllo tra pari, non possono avere alcun valore o significato.

    • La valutazione compassionevole: giustificare la macchina dei test con il richiamo all’uguaglianza. E’ la nuova frontiera della comunicazione. Basta non crederci. Ed il controllo tra pari in questo contesto è veramente una chicca da segnare per i prossimi post dedicati alla scuola: “negoziazioni in comunità collegiali poco inclini all controllo tra pari”.

  4. A Perplesso Confuso:
    non si può estrapolare una frase dal discorso nel quale era inserita. E cambiargli di senso. Perché la libertà non è all’esterno, ovvero nell’assenza di discorso (che non esiste), ma essa deve essere dentro i limiti del discorso. In altre parole: non pensieri in libertà ma libertà nei pensieri.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.