A metà giugno, la Fondazione Gianni Agnelli (FGA) ha reso pubblici i risultati di uno studio dal titolo Osservazioni in classe: come si sviluppano le competenze didattiche in Italia. rappresenta «la prima indagine condotta in Italia che riguardi l’osservazione diretta delle pratiche didattiche di oltre 1600 insegnanti di italiano e matematica». I dati parziali resi pubblici sono così macroscopicamente, definitivamente negativi, che non possono non indurre a una riflessione. L’intento di questo documento è provare a mostrare, una volta di più, che non sempre, quando si parla di educazione, di scuola o di università, tabelle e dati statistici rendono ragione dei fenomeni osservati. Nel caso specifico i dati proposti, tutt’altro che neutri, intendono suffragare una particolare visione della scuola, strettamente condizionata dal mondo della produttività e dell’economia. I risultati della FGA non “raccontano” il fallimento dell’insegnamento. O almeno, non lo raccontano a chi ha voglia di capire e approfondire linguaggi, metodi e contesti.

[Aggiunto l’1 agosto 2017] Link alla replica di G. Ferrer Esteban (Fondazione G. Agnelli) e D. Poliandri (INVALSI) e alla controreplica di G. Carosotti e R. Latempa:

Ancora sul modello-insegnante: una replica da INVALSI e Fondazione Agnelli

Premessa

A metà giugno, la Fondazione Gianni Agnelli (FGA) ha reso pubblici i risultati di uno studio dal titolo Osservazioni in classe: come si sviluppano le competenze didattiche in Italia. Si tratta di alcune anticipazioni degli esiti di un progetto sperimentale condotto in collaborazione con l’INVALSI, nell’anno 2013-2014, ancora in via di completamento[1]. Il progetto, scrive FGA, rappresenta «la prima indagine condotta in Italia che riguardi l’osservazione diretta delle pratiche didattiche di oltre 1600 insegnanti di italiano e matematica», nelle classi di V primaria e I secondaria di I grado. Il sommario pubblicato è un breve allegato di 6 pagine, contenenti dati su un campione di scuole omogeneamente distribuito tra nord, centro e sud. Le aree indagate sono 4, considerate centrali nella relazione educativa: il clima in classe, l’attività e il dialogo, l’attenzione alla diversità, il feedback sul lavoro da svolgere.

Dai risultati parziali appena pubblicati emerge un quadro sconfortante sotto ogni aspetto:

  • il clima in classe si deteriora progressivamente dalla scuola elementare alla media;
  • circa la metà degli insegnanti non dedica spazio alla discussione né svolge attività strutturate, lavora senza presentare obiettivi e senza chiarezza;
  • l’80% degli insegnanti non svolge adeguata differenziazione dell’attività, proponendo compiti uguali per tutti gli studenti indipendentemente dalla loro difficoltà specifiche;
  • nonostante sia cosa nota che l’attenzione al lavoro degli studenti è fondamentale per il loro apprendimento, circa la metà degli insegnanti non vi dedica cura: solo il 20% lo fa in maniera “adeguata”.

I dati sono così macroscopicamente, definitivamente negativi, che non possono non indurre a una riflessione.

L’intento di questo documento è provare a mostrare, una volta di più, che non sempre, quando si parla di educazione, di scuola o di università, tabelle e dati statistici rendono ragione dei fenomeni osservati. Nel caso specifico i dati proposti, tutt’altro che neutri, intendono suffragare una particolare visione della scuola, strettamente condizionata dal mondo della produttività e dell’economia. I risultati della FGA non “raccontano” il fallimento dell’insegnamento. O almeno, non lo raccontano a chi ha voglia di capire e approfondire linguaggi, metodi e contesti.

Da dove partire?

Crediamo che la maggior parte di noi, chi da insegnante, chi da alunno, da genitore o semplice cittadino, abbia una percezione della Scuola (pubblica) che, lungi dall’essere virtuosa, non sembra corrispondere nei numeri, ai dati pubblicati dalla Fondazione Agnelli.  Nel mini-rapporto si sente l’eco del documento della Buona Scuola del 2014[2], che la FGA con quest’indagine si propone chiaramente di sostenere, accettandone sia i discutibili parametri, sia le altrettanto discutibili finalità formative; in particolare, l’idea che niente della nostra Scuola si debba sostanzialmente salvare. Finalmente quei «docenti generici»[3], che si accontentano della sopravvivenza nella loro «comfort zone»[4], possono essere smascherati e messi nell’angolo, risultati numerici alla mano.  L’insegnante medio è proteso sommariamente (in modo non strutturato) alla trasmissione di nozioni, non si cura dei bisogni individuali dei bambini, che in alcuni casi devono chiedere il permesso per intervenire, e non “fa didattica innovativa”[5]. Una tale demolizione della figura dell’insegnante coincide con la demolizione della Scuola stessa. Nessuno vuole negare che esistano insegnanti più o meno capaci, ma è possibile che l’80% degli insegnanti non tenga conto dei bisogni differenziati degli alunni? Che metà degli insegnanti non dialoghi in classe? Che sempre la metà non dia adeguate spiegazioni su cosa fare? E tutto questo, durante l’«osservazione in classe delle sue competenze didattiche»? Per rispondere, è necessario un piccolo approfondimento, che permetta di decodificare queste percentuali grezze e senza scampo.  I dati numerici hanno sempre una storia. Sono l’esito di scelte e decisioni operate a monte e non l’output di un algoritmo puro e inconfutabile.

Quest’assunto sembrerebbe in realtà condiviso dalla stessa FGA. Nell’ l’incipit del Rapporto sulla valutazione delle scuole della Fondazione Agnelli del 2014, è possibile leggere: «Non esiste in astratto il «giusto» modello della valutazione: ciascun modello dipende da un’idea di scuola. Si valuta che cosa si ritiene importante (ad es. gli apprendimenti). La misurazione serve in quanto strumento di valutazione»[6]. Nel caso del documento in oggetto, i procedimenti di valutazione utilizzati presuppongono un’idea di istruzione identica a quella promossa dalla Buona Scuola. Il che attribuisce al documento non l’obiettività di una ricerca condotta secondo criteri di neutralità, bensì i caratteri di una presa di posizione politico-ideologica.

 

“Osservazione in classe” – la metodologia utilizzata

Nel programma in questione la valutazione esterna precede quella interna (autovalutazione). La particolarità del progetto consiste nella fase di osservazione in classe che “non ha finalità valutative, ma meramente conoscitive[7].

Ancora: «L’osservazione in classe viene effettuata da due osservatori formati nell’ambito delle scienze pedagogiche e sociali e con esperienze di lavoro e ricerca in ambito universitario».  Come di consueto, il giudizio sull’attività didattica dei docenti viene affidato a professionisti estranei alla scuola e non competenti né dell’ambito disciplinare esaminato, né della didattica relativa alle discipline prese in esame (in questo caso italiano e matematica). Come vedremo, quest’apparente paradosso è in realtà voluto, in quanto il principio alla base della nuova scuola è proprio quello della svalorizzazione del sapere disciplinare, a favore di una metodologia della trasmissione didattica che non è finalizzata all’acquisizione di contenuti specifici, bensì di alcune abilità astratte, meglio misurabili grazie al contributo ritenuto più affidabile di particolari scienze sociali.

«La tecnica di osservazione utilizzata non è invasiva: gli osservatori si posizionano all’interno della classe in modo da non arrecare disturbo all’attività didattica e non intervengono in alcun modo nel corso della lezione […]. La checklist di osservazione serve a registrare la frequenza, in termini di presenza o assenza, delle azioni indicate, ad intervalli di 15 minuti»[8]. Dunque: essi si limitano a registrare le azioni osservate su una scheda (scheda SGCC) e verificano la conformità ad un protocollo.  L’”unità temporale” di osservazione, ripetuta in tre momenti diversi (due ore di italiano e di matematica) è a sua volta scomposta in sottomultipli orari di 15 minuti ciascuno.  Sulla base di una variabile dicotomica (SI/NO) l’osservatore segnala la presenza dei comportamenti adeguati, ogni quarto d’ora. Ovviamente, è necessaria concordanza tra le osservazioni dei due valutatori esterni. Se il dato comportamento è osservato da uno solo dei due elementi esterni, l’item non viene “spuntato”. Occorre poi valutare con che frequenza si manifesta il grado di concordanza, nonché fare una sintesi dei tre differenti momenti di osservazione impiegati.

Riportiamo pochi dettagli “tecnici”, non per entrare nel merito di questa o quella modalità statistica, del tipo di modello matematico impiegato, ma per evidenziare il livello diingegnerizzazione” del metodo, a paragone con l’obiettivo prefissato, ossia valutare come si svolgono due ore di matematica o di italiano in una classe di bambini di 10 o 11 anni in una qualsiasi scuola del nostro paese.

Quali informazioni trarre dai risultati

 

Capiti contesto e modello, inquadrato il metodo di lavoro, emerge un’ulteriore perplessità.

Come è possibile che, conoscendo – presumibilmente – gli strumenti di valutazione, aderendo volontariamente al programma, concordando le osservazioni e le visite, gli insegnanti interessati abbiano potuto essere così poco strutturati nell’organizzazione delle loro lezioni? Non avere deliberatamente cura dei bisogni degli allievi più svantaggiati? Gestire con poca attenzione il clima della classe? Non restituire commenti, suggerimenti, stimoli ai ragazzi? Come possiamo spiegarci un atteggiamento così apertamente inerte per non dire scadente?

Per provare a rispondere all’interrogativo precedente, partiamo per gradi.

Diamo per scontato che:

  • il modello impiegato sia valido (la letteratura riportata dal progetto rappresenta un elemento probatorio in tal senso),
  • l’adesione sia stata realmente volontaria, anche da parte dei docenti e non solo dei dirigenti
  • gli insegnanti rientrino nella figura dell’insegnante medio (escludiamo quelle che gli statistici chiamano “code” della distribuzione).

Una lettura degli esiti del questionario di percezione degli insegnanti e del report finale sulla percezione studenti-docenti[9], permette di escludere l’ipotesi che i docenti fossero poco convinti e motivati, e che sul loro agire didattico siano intervenuti non ben precisati “fattori di disturbo” esterni e poco controllabili: «i dati mostrano che, nella maggioranza dei casi (90%) gli insegnanti dichiarano di essersi sentiti poco preoccupati prima della visita, a proprio agio durante l’osservazione in classe…La quasi totalità degli insegnanti dichiara di non essersi sentita né giudicata né influenzata nel proprio modo di condurre la lezione. Più in generale, l’osservazione in classe è stata vissuta come un’esperienza positiva..».

Dunque, ricapitolando: docenti collaborativi e volontari, a conoscenza del metodo di valutazione, a proprio agio nonostante gli osservatori, hanno “prodotto” risultati così poco soddisfacenti. A questo punto, le conclusioni sembrano essere due:

  • O gli insegnanti sono del tutto inadeguati, dunque esiste un problema di collocazione di questi insegnanti nelle classi e, ammettendo che essi siano un campione rappresentativo, di tutti gli insegnanti in tutte le classi d’Italia.
  • Oppure non c’è chiarezza e condivisione di definizione tra le variabili “misurate” (capacità didattica dell’insegnante) e syllabus impiegato (griglia di osservazione). In altre parole, si tratta di una riduzione e semplificazione eccessiva di un fenomeno complesso (di tipo psicologico o educativo) ad un modello matematico.

Sembra chiaro che i dati pubblicati dalla Fondazione, inducono, dopo una rapida osservazione, a propendere per la conclusione nr 1). Conclusione, a cui dovrebbe far seguito (come minimo) un comunicato stampa del MIUR e di INVALSI e a seguire una presa di posizione politica, data la gravità dei fatti.

Noi riteniamo, invece, che sia proprio la conclusione nr 2 a meritare un approfondimento.

L’uso di una serie di indicatori che stabiliscono la conoscenza di un fenomeno (in questo caso la lezione di italiano e matematica) non può avere la pretesa di essere oggettiva, “scientifica”. La definizione delle abilità da testare, degli items da spuntare, è delegata a chi prepara la griglia di valutazione: ossia a INVALSI e FGA.  Dunque esiste un problema macroscopico di condivisione della scelta, di commensurabilità dei risultati tra elementi diversi, di oggettività scambiata per ragionevolezza e buon senso[10].

Nell’indagine si è fatto uso di modelli di valutazione stranieri, quasi tutti di matrice anglo-americana, destinati fatalmente a orientare la conclusione verso esiti predeterminati. Peraltro fortemente condizionati dall’incongruità tra le griglie utilizzate e l’oggetto cui vengono applicate. Preme sottolineare ancora una volta quest’aspetto per un doppio ordine di considerazioni: 1) si dà per scontato  che la valutazione della scuola debba provenire da professionisti estranei all’attività docente e alla pratica didattica; 2) di conseguenza, il docente –forte di una preparazione professionale derivata da un iter formativo condizionato dalle specificità della disciplina insegnata- non potrà che trovarsi in difficoltà di fronte a un’indagine impostata secondo criteri elaborati al di fuori dell’esperienza scolastica.

Proviamo, per assurdo, a rovesciare la situazione: cosa otterremmo da un’indagine che misura la produttività di un ente finanziario, misurata con una griglia di valutazione costruita da insegnanti di italiano e latino, di matematica e fisica? Insegnanti che abbiano accumulato un dignitoso monte ore di formazione nel loro portfolio docente, per carità, che conoscano l’evoluzione dei differenziali di rendimento tra BTP e titoli di stato tedeschi, che sappiano calcolare indici di liquidità e redditività, ma pur sempre insegnanti di italiano e matematica.

Il richiamo al rigore scientifico che il corredo di modello e dati porta con sé, non è sovrapponibile al metodo scientifico, quello con cui solo la ricerca costruisce la conoscenza dei fenomeni. Ovvero una griglia, per quanto rigorosa, non potrà mai risultare efficace se applicata ad oggetti che non le corrispondono. Una misura scientifica, ad esempio in fisica, va condotta in ambiente artificiale e controllato (laboratorio). E’ proprio questa la rivoluzione del metodo scientifico. Considerare rigorosa l’osservazione di un fenomeno (modello di scienza aristotelica), tanto più se si tratta di un fatto educativo, significa dimenticare la realtà e la complessità del fenomeno stesso, l’ostacolo epistemologico implicito nell’impiego di misure indirette, di variabili latenti[11].

Discutibile risulta pure la convinzione che il sistema di valutazione adottato permetta di accertare la «lezione autentica». I dubbi, in questo caso, non dipendono solo dall’incongruità già ricordata tra sistema di valutazione e oggetto valutato, ma dallo stesso obiettivo ricercato. L’aggettivo «autentico», infatti, unito di volta in volta ai sostantivi «lezione» o «valutazione», è uno dei pilastri fondanti della cultura pedagogistica, pur conservando un’estrema ambiguità semantica. Si tratta, analogamente a quello di «competenza», di un concetto ad alto tasso ideologico che, coerentemente, evita il confronto critico innalzando in modo autoreferenziale  i propri assunti a dignità scientifica. Il termine «autentico», infatti, per il suo carattere contrappositivo intende delegittimare la prassi consueta della professionalità docente, a favore di attività in linea con la didattica innovativa, le cui caratteristiche sono quelle indicate nel protocollo[12].

Nonostante questa lodevole intenzione, risulta però impossibile, attraverso una scheda o un modello matematico, far parlare e comunicare tra loro mondi diversi: quello delle organizzazioni e della produttività con quello della scuola e della formazione. Perché, per quanto “antiriformista” possa apparire, quello dell’insegnante è un mestiere. E non è affatto scientifico, ma “empirico”.

E’ un’impostura intellettuale pensare che 190 osservatori estranei al mondo della Scuola, possano entrare in 1600 classi, osservarle per 10 quarti d’ora consecutivi, spuntando caselle in tre diversi momenti dell’anno, raccogliere l’output e restituircelo sotto forma di grafici a barre. I risultati ottenuti non sono una conquista di ordine epistemologico acquisita dal mondo scientifico, ma una grande vittoria politica del mondo delle associazioni, tanto estranee alla scuola quanto vicine al mondo economico.

Non esistono “IL metodo di insegnamento”, “LA lezione perfetta o autentica”. Usare tecniche di narrazione, impiegare nuove tecnologie, strutturare al minuto la lezione o lasciare spazi all’improvvisazione – nata da bisogni reali e imprevedibili- lasciare libero dialogo o pretendere silenzio e rigore assoluti, sono tutti metodi di insegnamento possibili e validi. Lo sono in una classe e non in un’altra, in un certo momento e non in un altro. Gli alunni non possono essere motivati, attratti, coinvolti, impegnati a “imparare ad imparare” per 5 o 6 ore al giorno, 200 giorni all’anno, in circa 12 discipline. L’insegnante, d’altra parte, solo attraverso una continua riflessione su metodi e contenuti della propria disciplina, può rendere viva e significativa la conoscenza.  Solo restando sé stesso e scegliendo liberamente (che non significa arbitrariamente) il proprio metodo di insegnamento, può insegnare agli allievi ad avere un rapporto libero con la cultura.  ”E’ con l’esempio che si dimostra ai ragazzi ciò che è possibile anche per loro.  L’insegnante è, solo se è libero[13].

Autonomia scolastica significa scelte personali e soprattutto disciplinari, scelta di metodi e strumenti. Le coorti di “prove parallele”, uguali per tutte le discipline, che stanno via via scandendo la didattica di tutte le scuole italiane, non sono un caso, una scelta locale e dunque autonoma. Sono l’estremo tentativo di rispondere alla richiesta di efficienza che proviene dall’INVALSI[14]. Ma le “libertà collettive” o “libertà collegiali”, non esistono, sono proprie di sistemi iper-centralizzati.

Non sembra corrispondere a questi principi il metodo d’insegnamento auspicato dalla FGA, sostanzialmente obbligato, in base a presupposti le cui fondamenta epistemologiche risultano quanto meno dubbie. Tale pretesa va di pari passo con una critica costante tesa a delegittimare attività consolidate, quali la lezione frontale, rappresentata in modo per lo più caricaturale. Essa –è bene ribadirlo- rappresenta invece un presupposto irrinunciabile in una relazione asimmetrica quale rimane la trasmissione di sapere; proprio perché permette di valutare la metodologia opportuna da svolgersi di volta in volta, per sollecitare la  motivazione, valutare la qualità e la frequenza degli interventi degli alunni, nonché le strategie opportune per intensificarli. Ovviamente, tale capacità osservativa e relazionale ha bisogno di tempi lunghi, nei quali è inevitabile affrontare situazioni sfidanti (la noia, un’iniziale passività), che in ogni caso contribuiscono alla crescita personale. La logica dei quindici minuti, individuati quale unità minima di valutazione nell’inchiesta della FGA, distruggerebbe invece la credibilità anche del migliore docente.

Non è un’idea né antiriformista né corporativa preservare la specificità della propria disciplina e il proprio stile di lavoro. Se è vero che gli allievi hanno diversi bisogni educativi e stili di apprendimento, hanno tutti la necessità di appropriarsi di una cultura e dei suoi strumenti. E se la società impone la verifica del lavoro svolto in nome di un principio di trasparenza, allora la valutazione deve essere materia di scuola, di disciplina, di contesto[15]. “Non esiste in astratto il «giusto» modello della valutazione: ciascun modello dipende da un’idea di scuola”, dicevamo. E non esiste in astratto il “giusto” modello di insegnante, aggiungiamo. Dipende dall’idea di scuola. Noi quale scuola vogliamo?

[1] http://www.fga.it/note-e-contributi/tutte-le-note/dettaglio/article/osservazioni-in-classe-620.html#.WUwP62gT600

[2] https://labuonascuola.gov.it/

[3] Quale dirigenza per la scuola dell’autonomia?, proposte per una professione nuova, Treelle, 2007.

[4] Espressione usata da Damien Lanfrey, uno degli ideatori del documento Piano della Nuova Scuola Digitale, http://damienlanfrey.nova100.ilsole24ore.com/2015/10/30/abbiamo-un-piano-e-digitale/. Sul curriculum vitae  di Damien Lanfrey e degli altri collaboratori del ministro, in relazione alle loro competenze per intervenire nel dibattito sulla scuola cfr. al seguente link http://docplayer.it/271107-L-illusione-di-far-bene.html.

[5] Uno degli indicatori del recente rapporto di autovalutazione (RAV) con cui ogni scuola deve misurarsi, dal 2014 è proprio la “presenza di didattica innovativa”, non specificata, da attestare all’interno di una rubrica di valutazione graduata dall’1 (minimo) al 7 (eccellenza), da cui si evince che per “didattica innovativa” il MIUR considera “lavori di gruppo, utilizzo di nuove tecnologie, realizzazione di ricerche o progetti come attività ordinarie della classe”.

[6] FGA, Rapporto sulla valutazione nelle scuola, 2014 (vedi nota 3)

[7] Seminario informativo tenutosi a Formia, aprile 2015 (materiali sul sito INVALSI).

[8] Di documenti riportati nel sito del progetto: http://www.invalsi.it/Invalsi/ri/audit/doc_VM.php.

[9] Entrambi i documenti sono riportati nel sito del progetto (vedi nota precedente).

[10] Nella lettera indirizzata al presidente dell’OCSE-PISA Andreas Schleicher, da numerosi intellettuali e scienziati, pubblicata in italiano al seguente link https://blogletteraturacapuana.wordpress.com/2014/05/15/traduzione-in-italiano-della-lettera-aperta-a-andreasschleicher-ocse-parigi/ , viene contestata la legittimità dei criteri di valutazione adottati, anche denunciando l’interesse di determinati settori economici a condizionarli: ««Al momento, infatti, coloro i quali esercitano maggiore influenza sulle scelte valutative dei livelli di apprendimento dell’istruzione globale sono esperti di psicometrica, di statistica e di economia. […] sarebbe opportuno, dunque, far partecipare al tavolo delle decisioni circa i metodi e gli standard di valutazione degli apprendimenti anche organizzazioni internazionali che hanno a cuore, non esclusivamente gli aspetti economici, ma anche la salute, lo sviluppo personale, il benessere di studenti e docenti».

[11] E. Rogora, intervento in dibattito sulle rilevazioni INVALSI, Università di Roma, 2013 (reperibile online).

[12] Il concetto di «autentico» in pedagogia è anch’esso di origine anglofona. Si veda in proposito G.Wiggins, A TRìrue Test: Toward More Authentic and Equitable Assesment, in The Phi Delta Kappan, vol.70, Maggio 1989, pp.703-713, leggibile al seguente link:  https://grantwiggins.files.wordpress.com/2014/01/wiggins-atruetest-kappan89.pdf. Per quanto riguarda la sua diffusione in Italia, cfr. M.Comoglio, La valutazione autentica, in Orientamenti pedagogici, 49 (1), 2002, pp.93-112, in cui appare il forte legame con la didattica per competenze. Tale concetto, tutt’altro che condiviso tra gli insegnanti, e segnato da evidenti aporie, è stato considerato dal MIUR un requisito indispensabile per i nuovi insegnanti, tanto da rientrare tra gli argomenti in programma per i recenti concorsi. A questo proposito, è utile la lettura del seguente documento: http://www.notiziedellascuola.it/legislazione-e-dottrina/indice-cronologico/2016/febbraio/DECRETO_MIUR_20160223_prot95/allinone_view

[13] L.Varaldo, La scuola rovesciata, ETS edizioni, 2016.

[14] Nel format del RAV, (nota 5), un indicatore precostituito è “presenza di prove parallele in ingresso, intermedie, di uscita”.

[15] Un’idea di valutazione è proposta nella Legge di Iniziativa Popolare sulla scuola, ripresa quest’anno, sulla base di una proposta passata: http://lipscuola.it/blog/per-la-scuola-della-costituzione-legge-di-iniziativa-popolare/

Print Friendly, PDF & Email

15 Commenti

  1. Oggi la Fedeli ha fatto un bel discorsino sulla sicurezza scolastica, che sarà a beneficio di ‘studenti e studentesse’: non ha nominato gli insegnanti né il restante personale.
    Naturalmente questa sicurezza servirà ad avere edifici scolastici adatti ad ospitare ‘didattica innovativa’: non ha pronunciato la parola studio.
    L’analisi del discorso rivela sempre qualcosa che va oltre le intenzioni del parlante: il miur ha deciso di annientare la tradizione scolastica italiana e noi tutti che insegniamo all’università nel giro di pochi anni o abbasseremo drasticamente il livello delle lezioni o parleremo a una platea di sordi che arrafferanno un 18 e saranno bravi a mettere insieme una tesi-collage da Internet e, se andranno a insegnare, diverranno illustratori di programmi informatici.

  2. 1. Continua la esternalizzazione e la privatizzazione di attività che dovrebbero essere svolte da istituzioni pubbliche.
    2. Scimmiottamento acritico di americanate (avevo letto una volta una prova tipo invalsi americana, raccapricciante; ma la criticavano gli Americani stessi).
    3. Tra un po’ non ci saranno nemmeno più persone in carne ed ossa a osservare in classe, le quali ogni 15 minuti mettono qui a là crocette, ma telecamere che trasmetteranno chissà dove, in maniera delocalizzata, a persone sedute davanti allo schermo e che mettono crocette ogni 15 minuti. Degno di un film.
    4. La scuola è solo l’anteprima dell’università, come è successo col le prove invalsi. Tra un po’ succederà la stessa cosa nelle aule universitarie.
    5. Auguri!

  3. ma gli autori hanno letto i materiali di Formia che citano? vedo che la check-list dei 15 minuti non è l’unico strumento, c’è anche una scala di valutazione per l’intera lezione. Inoltre la pedagogia attiva è presente anche nella tradizione della scuola italiana! cmq, mettere insieme una critica alle pratiche didattiche innovative e un sospetto di tentativo di “suffragare una visione della scuola condizionata dal mondo della produttività e dell’economia” è quantomeno contraddittorio…

    • Quali sarebbero le pratiche didattiche innovative? Usare P P, come per la presentazione delle tesi di laurea? Quello sì che è stato un salto di qualità, per come viene utilizzato da pappagalli ammaestrati. Non tutti ma molti.
      Oppure?

    • Ovviamente gli autori hanno letto i documenti del progetto che descrivono.
      Quelli pubblicizzati da INVALSI, relativi al seminario di presentazione di Formia del 2015, sono – per quel che riguarda il quadro di riferimento della parte valutativa – un compendio di un vasto lavoro dell’istituto, denominato VALSIS (http://www.invalsi.it/valsis/documenti.php?sez=1, 2010).
      La letteratura di riferimento, a livello internazionale è quella della “school effectiveness” (riportata in coda a tutti i documenti istituzionali INVALSI), che poggia sul modello CIPP (Context, Inputs, Process, Product). All’interno della dimensione Processi, si colloca l’area di “processi a livello di classe”, articolati, a loro volta, nelle 4 aree associate alla Scheda di osservazione SGCC (Strategie, sostegno, gestione, clima). L’osservazione condotta durante il progetto VM è basata su un protocollo definito e sintetizzato nella scheda, il cui contenuto è reperibile in rete, sia nei vari seminari di disseminazione INVALSI, (http://www.invalsi.it/INVALSI/ri/audit/documenti/fase2_estensiva/osservazione_classi_laboratori.pdf), sia nei siti delle scuole che vi hanno aderito (ad es. http://www.icnoale.gov.it/ftp/circolari/c2013_14/c177_2013_14.pdf).
      Per chi volesse approfondire, la descrizione delle scelte metodologiche adottate per condurre l’osservazione in classe è riportata nel resoconto Poliandri et al, 2012, reperibile al: http://ojs.pensamultimedia.it/index.php/sird/article/view/248.
      Ciò che è evidente, è la modalità operativa basata su uno strumento strettamente quantitativo e strutturato che, come gli stessi autori scrivono (Poliandri et al, pag 176) “permette una pre-codifica delle informazioni e consente il confronto tra dati, limitando l’arbitrarietà della rilevazione sul campo”.
      Continuano: “Tuttavia, uno spazio della scheda di osservazione è dedicato alle note sul campo, per permettere agli osservatori di precisare quanto registrato nella griglia, nonché di annotare altri aspetti non previsti, descrivere eventi, riportare proprie riflessioni..”.
      E’ proprio quest’ultimo capoverso, se vogliamo, il “cuore” della nostra riflessione. Quel “tuttavia” che getta luce sull’imprevisto e sulla riflessione non predeterminata dalla griglia stessa, che stabilisce a priori le azioni “virtuose”. Come abbiamo ampiamente sottolineato, è in quel “tuttavia” e nello spazio bianco lasciato agli osservatori per la libera annotazione che si manifesta l’”incomprimibilità” della “materia” e delle relazioni umane di una lezione scolastica, che sfuggono al campionamento della scheda.
      Ci preme sottolineare che un protocollo analogo, adattato proprio dalla scheda SGCC del progetto VM, è già in uso nelle pratiche di osservazione dei docenti neoassunti (DM 850/2015) della Buona Scuola. A titolo di esempio, si veda il protocollo adottato nelle Marche http://www.marche.istruzione.it/docenti%20neo%20assunti/allegati/indicazioni%20per%20osservazioni%20in%20classe%20-%20USR%20Marche.pdf. Le indicazioni fornite dall’USR per l’osservazione dei neoassunti, utili al docente tutor o ai dirigenti scolastici, propongono proprio la checklist del progetto FGA per l’osservazione dei nuovi insegnanti.
      Come dire, il futuro è già arrivato (cit.)

    • Appunti:
      INVALSI
      VALSIS
      “school effectiveness”
      modello CIPP (Context, Inputs, Process, Product)
      dimensione Processi
      “processi a livello di classe”
      Scheda di osservazione SGCC (Strategie, sostegno, “””gestione, clima).
      progetto VM
      Protocolloo
      vari seminari disseminazione INVALSIi
      modalità operativa basata su uno strumento strettamente
      quantitativo !!!!! CI SIAMO!!!!!
      pre-codifica delle informazioni … limitando l’arbitrarietà della rilevazione sul campo
      Tuttavia …..note sul campo e proprie riflessioni QUALE GENEROSITÀ
      azioni “virtuose”.
      l’”incomprimibilità” della “materia” e delle relazioni umane di una lezione scolastica” MA NO! CHI L’AVREBBE MAI DETTO!
      protocollo analogo, adattato proprio dalla scheda SGCC del progetto VM,
      Buona Scuola QUESTO SÌ CHE TRANQUILLIZZA
      indicazioni fornite dall’USR per l’osservazione dei neoassunti
      checklist del progetto FGA per l’osservazione dei nuovi insegnanti.
      Come dire, il futuro è già arrivato BELLISSIMA CHIUSA E ORIGINALE PENSIERO
      Più facile imparare il cinese e più utile senz’altro.
      Autore? Funzionario Miur/ Anvur?

    • Rossella Latempa, anch’io ho letto i materiali: le anticipazioni di risultati da voi citate non derivano dalla checklist dei 15 minuti (sulla quale costruite il tutto), ma da una scala di valutazione per l’intera lezione (più qualitativa). Tra l’altro, e’ l’Invalsi che coordina il progetto, non la FGA. Per quello che vedo, nei materiali di Formia appare soltanto in una presentazione. Non sarà che il “cuore” della vostra riflessione è troppo condizionato da pregiudizi?

    • Gentile G. Rettore,

      la distribuzione degli incarichi all’interno della sperimentazione descritta, tra INVALSI e FGA, a dire il vero, risulta per noi piuttosto irrilevante. Dai documenti che lei stesso richiama (citiamo testualmente) si legge “Il progetto si avvale della consulenza scientifica e del supporto metodologico della Fondazione Giovanni Agnelli”. Abbiamo, infatti, parlato di “collaborazione” tra i due istituti.
      Ciò che conta, a parer nostro, è che uno, INVALSI, è l’Istituto di Valutazione del Sistema Scolastico Italiano, a cui noi docenti facciamo riferimento oramai costantemente. La FGA, invece, è un istituto di diritto privato che rappresenta oramai da anni un interlocutore privilegiato (non il solo estraneo al mondo scolastico).
      Non appare chiaro, infatti, come mai un progetto che parli direttamente del lavoro dell’insegnante in classe (della relazione maestro -bambini) e dunque coinvolga ancor più direttamente le famiglie, debba trovare spazio e diffusione sul sito di una Fondazione privata ma NON sul sito istituzionale dell’INVALSI o del MIUR.
      Nessuna traccia.
      Perché anticipare i risultati prima dell’INVALSI, secondo lei?
      “L’elaborazione dei risultati è in via di completamento e i risultati finali saranno oggetto di un rapporto di ricerca nei prossimi mesi”, scrive FGA.
      Per quale motivo diffondere il quadro descritto prima della chiusura dell’elaborazione?
      Come può ben capire, non si tratta di pregiudizio, ma di mancanza di risposte ragionevoli.

      Riguardo ciò che lei definisce “scala di valutazione”, presumiamo si riferisca alla cd rubrica di valutazione (a meno che non abbia documenti a noi sconosciuti), che costituisce la quinta sezione della scheda SGCC, laddove si scrive: “le scale di valutazione [da compilare al termine dell’osservazione effettuata con la scheda suddetta] riguardano ciò che si è precedentemente osservato nelle due ore di osservazione. In tutto sono state previste 18 scale con un range di risposte a 7 passi”.
      Non si tratta, dunque, di quella che lei definisce “descrizione qualitativa”, ma di una rubrica di valutazione da affiancare (non alternativa, stando a quanto leggiamo) all’output della scheda, esplicitando un livello graduato da 1 a 7 (rubrica analoga a quella del format RAV, con cui lavoriamo oramai da tre anni).
      D’altra parte, come esplicitamente scritto nel documento citato nel precedente commento-che la invitiamo a leggere – redatto dall’USR delle Marche “l’osservazione asistematica (o libera) – in cui l’osservatore assiste ad una lezione prendendo appunti spontaneamente (ed elabora un “diario di bordo” in forma libera, annotando ciò che – a suo giudizio – riveste particolare importanza) può fornire importanti elementi di conoscenza, si ritiene tuttavia che l’osservazione strutturata sia da privilegiare”.
      Poche storie, insomma. E’ “il protocollo” che garantisce “scientificità” e soprattutto “comparabilità”.
      Solo i dati “parlano”, non le note a margine, soggettive e dunque irrilevanti.
      E i dati anticipati dalla SOLA Fondazione Agnelli, prima di qualsiasi organo ISTUTUZIONALE(unico riferimento per noi insegnanti) “parlano” delle 4 aree della Scheda di osservazione, da cui riprendono persino i nomi: Strategie, Gestione, Sostegno, Clima.
      Sono loro, per INVALSI e FGA, il “cuore”, o se preferisce il nuovo lessico, il “core”, dell’azione didattica sgangherata degli insegnanti italiani.

    • “l’azione didattica sgangherata degli insegnanti italiani…”
      Come si è sgangherata e chi l’ha sgangherata e se fosse sgangherata perché si è aspettato tanto? O non è che si è fatto di tutto per trasformare buona parte della scuola, in nome dell’autonomia e dei ‘rapporto col territorio’ in luoghi di intrattenimento, come nei paesi ‘più avanzati’, dalla quale certi alunni escono che non sanno comprendere due frasi in fila e non sanno leggere la scrittura a mano?

      “INVALSI, è l’Istituto di Valutazione del Sistema Scolastico Italiano, a cui noi docenti facciamo riferimento oramai costantemente.” Mah, speriamo che sia Invalsi sia Anvur siano profondamente ridimensionati e riformati e che i docenti si diano ben altri punti di riferimento culturali.

    • Marinella Lorinczi, condividiamo le stesse perplessità e speranze: punti di riferimento culturali e non solo tecnici, dubbi profondi sulla scientificità delle cd didattiche innovative e dei metodi psicosometrici importati dal mondo extrascolastico per indagare fin dentro le classi.

  4. Un giorno forse uno psichiatra mi chiarira’ cosa c’e’ dietro l’ossessione delle didattiche innovative, la pedagogia attiva, le riforme che producono risultati miserrimi (a parte il desiderio di vendere computer).

    • Pedagogia attiva sarà coinvolgere i discenti, sai che novità. Lo fanno fin dall’Antichità documentata e sicuramente da prima. Ora chiederò a un pedagogista. Alternanza studio-lavoro. Un’altra scoperta dell’acqua stantia. Ho esperienza in questo campo, ho ricordi interessanti, ma è difficile scriverlo sull’IPad. Sarà per un’altra puntata. Per la didattica ho innovato per conto mio, e mi sono divertita oltre a fare scoperte (novità per me, s’intende).

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.