Dopo mesi di clamore sul potenziale dell’intelligenza artificiale nell’istruzione, stanno emergendo segnali di come i modelli linguistici possano effettivamente integrarsi nelle pratiche di insegnamento e apprendimento. Mentre i sogni di automazione nell’istruzione hanno una storia molto lunga, l’attuale ondata di applicazioni di “IA generativa” – produttori automatizzati di testo e immagini – ha portato a un’ondata di commenti entusiastiattività politicaprogrammi di accelerazione e speculazioni sugli investimenti edtech, oltre a primerguide pedagogiche e corsi di formazione per gli educatori. L’intelligenza artificiale generativa nell’istruzione, suggerisce tutta questa attività, sarà essa stessa generatrice di nuove pratiche pedagogiche, in cui l’insegnante potrebbe avere un assistente “copilota” che guida le loro routine pedagogiche e gli studenti potrebbero impegnarsi in nuove modalità di studio e apprendimento supportate da strumenti automatizzati ”tutorbot” .

“Ogni bambino avrà un tutor di intelligenza artificiale che è infinitamente paziente, infinitamente compassionevole, infinitamente informato, infinitamente utile”, ha scritto l’investitore di venture capital Marc Andreessen in uno degli esempi più iperbolici del recente  potenziamento dell’IA. “Il tutor AI sarà al fianco di ogni bambino in ogni fase del suo sviluppo, aiutandolo a massimizzare il suo potenziale con la versione macchina dell’amore infinito.”

Ma cosa succederebbe se, invece di essere generatrice di trasformazioni educative, l’intelligenza artificiale nell’istruzione si rivelasse degenerativa, deteriorando anziché migliorare le pratiche scolastiche, le relazioni educative e i sistemi scolastici più ampi?

La storia della tecnologia ci dice che nessuna tecnologia funziona mai del tutto come previsto, e non è nemmeno solo uno strumento neutrale per raggiungere fini benefici.

L’intelligenza artificiale, come tutta la tecnologia, ha radici storiche più antiche, che ne modellano lo sviluppo e i compiti che è destinata a svolgere, e spesso porta a conseguenze impreviste e talvolta deleterie. Gli attuali esempi di intelligenza artificiale sono intrisi di un tipo di politica che applica soluzioni tecniche e di mercato a tutti i problemi sociali.

Pur apprezzando parte dell’attuale pensiero creativo e critico sull’intelligenza artificiale generativa nell’istruzione, restano da affrontare le domande sui suoi possibili impatti a lungo termine. È già apparso un importante lavoro sull’etica, sui danni e sulle implicazioni sociali e ambientali dell’intelligenza artificiale nell’istruzione, e dovrebbe rimanere un argomento di deliberazione urgente piuttosto che vincolato da meschine pretese di inevitabilità. Qui esploro l’idea di IA degenerativa nell’istruzione da tre direzioni: IA degenerativa come (1) sistemi sperimentali estrattivi, (2) sistemi mostruosi e (3) sistemi scalabili in cerca di rendita.

Sistemi sperimentali estrattivi

Molte applicazioni di intelligenza artificiale generativa nel campo dell’istruzione rimangono speculative, ma un esempio prototipo di tutorbot automatizzato ha già iniziato a essere introdotto nelle scuole. L’organizzazione no-profit per l’apprendimento online Khan Academy ha creato un chatbot di apprendimento personalizzato chiamato Khanmigo, che sostiene possa fungere da tutor per gli studenti e da assistente per gli insegnanti. La giornalista del New York Times Natasha Singer ha riferito dei primi test pilota di Khanmigo in un distretto scolastico degli Stati Uniti, suggerendo che il distretto “si è essenzialmente offerto volontario per fungere da cavia per le scuole pubbliche di tutto il paese che stanno cercando di distinguere l’uso pratico della nuova intelligenza artificiale. hanno assistito i robot tutoraggio dalle loro promesse di marketing”. I risultati appaiono contrastanti.

L’inquadramento dei test Khanmigo come test pilota e gli studenti come cavie per l’intelligenza artificiale è istruttivo. Recentemente, Carlo Perrotta ha affermato che gli educatori sembrano prendere parte a un “esperimento sociale” in cui i sistemi codificati di istruzione – pedagogia, curriculum e valutazione – vengono tutti riconfigurati dall’intelligenza artificiale, richiedendo sforzi laboriosi da parte degli educatori per adattare le loro pratiche professionali. Questo lavoro pedagogico, suggerisce Perrotta, significa principalmente che gli insegnanti aiutano l’intelligenza artificiale generativa a funzionare senza intoppi.

L’esperimento Khanmigo esemplifica gli sforzi laboriosi richiesti agli insegnanti per supportare l’intelligenza artificiale generativa. Gli insegnanti nel rapporto del NYT continuavano a riscontrare problemi – come il tutorbot che forniva risposte dirette quando gli insegnanti volevano che gli studenti risolvessero i problemi – con Khan Academy che rispondeva di aver sistemato o corretto questi problemi (erroneamente in almeno un caso).

Ciò solleva due questioni. La prima è il possibile “cognitive offloading” (scarico cognitivo) e la riduzione dello sforzo mentale o della capacità di risoluzione dei problemi che l’IA generativa può comportare. L’intelligenza artificiale può esercitare effetti degenerativi sull’apprendimento stesso. Più prosaicamente, è probabile che l’intelligenza artificiale riproduca gli aspetti peggiori dell’istruzione scolastica: il saggio standardizzato è già fortemente vincolato dalle esigenze dei regimi di valutazione, e i modelli linguistici tendono a riprodurlo nel formato e nel contenuto.

La seconda questione è ciò che Perrotta ha descritto in termini di “divisione dell’apprendimento”: un termine di Shoshana Zuboff che denota una distinzione tra organizzazioni di intelligenza artificiale con “infrastruttura materiale e capacità intellettuali esperte” per apprendere dai dati e mettere a punto modelli e processi, e gli sforzi non retribuiti degli utenti quotidiani le cui interazioni con i sistemi rifluiscono nel loro sviluppo continuo. Altrove, Jenna Burrell e Marion Fourcade hanno distinto tra “l’élite del coding”, una nuova classe professionale di competenze tecniche, e una forza lavoro recentemente emarginata o non retribuita, il “cybertariat”, da cui estrarre manodopera. Nel caso Khanmigo, gli ingegneri e i dirigenti della Khan Academy sono una nuova élite di sviluppo dell’intelligenza artificiale nel campo dell’istruzione, che sfrutta il lavoro degli insegnanti e degli studenti del cybertariato in classe.

L’intelligenza artificiale potrebbe, a lungo termine, esercitare un’ulteriore pressione degenerativa sulle pratiche e sulle relazioni in classe. Richiede lavoro aggiuntivo non retribuito da parte degli insegnanti e ne estrae valore. L’intelligenza artificiale e altre tecnologie predittive possono anche, come sostiene Sun-ha Hong, sottrarre potere discrezionale ai professionisti, rimodellando o addirittura diminuendo il loro processo decisionale e la portata del giudizio professionale. Nel caso sperimentale di Khanmigo, anche il potere discrezionale dell’insegnante è almeno parzialmente sfruttato, o quanto meno complicato dalla presenza di un tutorbot.

Sistemi mostruosi

L’esperimento della Khan Academy è particolarmente significativo perché Khanmigo è stato costruito attraverso un’integrazione con GPT-4 di OpenAI. In definitiva, ciò significa che il tutorbot è un’interfaccia per il modello linguistico di OpenAI, che consente al bot di generare risposte personalizzate per gli studenti. Ci sono anche rapporti secondo cui la partnership potrebbe essere la base dei piani di OpenAI per sviluppare un’intera OpenAI Academy, un’alternativa basata su GPT all’istruzione pubblica.

Sam Altman e Salman Khan di OpenAI tendono entrambi a giustificare i loro interessi nelle applicazioni di tutoraggio personalizzato facendo riferimento a un influente studio di ricerca sull’istruzione pubblicato nel 1984: il problema dei 2 sigma di Benjamin Bloom. Ciò si basa sull’osservazione che gli studenti che ricevono tutoraggio individuale ottengono in media 2 deviazioni standard più alte sulle misure di rendimento rispetto a quelli di una classe di gruppo convenzionale. Il problema è come ottenere gli stessi risultati quando il tutoraggio individuale è “troppo costoso da sostenere su larga scala per la maggior parte delle società”. Lo stesso Bloom ha suggerito che i “corsi di apprendimento informatico” potrebbero “consentire a proporzioni considerevoli di studenti di ottenere l’effetto di conseguimento di 2 sigma”.

In un recente discorso sul potenziale “trasformativo” delle nuove applicazioni dell’intelligenza artificiale per l’istruzione, Sam Altman ha affermato:

La differenza tra l’istruzione in classe e il tutoraggio individuale è come due deviazioni standard: una differenza incredibile. La maggior parte delle persone semplicemente non può permettersi il tutoraggio individuale… Se riusciamo a combinare il tutoraggio individuale per ogni bambino con le cose che solo un insegnante umano può fornire, il tipo di supporto, penso che questa combinazione Potra’ essere incredibile per l’istruzione.

Ciò rispecchiava l’invocazione ancora più esplicita di Khan al modello di Bloom in un recente TED Talk sull’uso dell’intelligenza artificiale per “salvare l’istruzione”, dove ha anche annunciato Khanmigo.

Il modello di Bloom enfatizza un approccio all’istruzione chiamato “mastery learning”, un approccio graduale che include cicli di istruzione, valutazione formativa e feedback per garantire che gli studenti abbiano padroneggiato i concetti chiave prima di passare all’argomento successivo. Per imprenditori come Altman e Khan, l’effetto di raggiungimento di 2 sigma sull’apprendimento della padronanza è considerato fattibile con tutorbot di apprendimento personalizzati in grado di fornire le lezioni individuali richieste a basso costo e su larga scala.

Marie Heath e colleghi hanno recentemente sostenuto che la tecnologia educativa è eccessivamente dominata da concezioni psicologiche dell’apprendimento individuale e quindi non riesce ad affrontare i determinanti sociali dei risultati educativi o delle esperienze degli studenti. Questo approccio psicologico individuale all’apprendimento è solo esacerbato dai sistemi di apprendimento personalizzati basati sull’intelligenza artificiale basati su nozioni di padronanza e sulla sua misurazione statistica. L’obiettivo di raggiungere l’effetto 2 sigma riflette anche il presupposto del settore dell’intelligenza artificiale secondo cui l’intelligenza umana è una capacità individuale, che può quindi essere migliorata con soluzioni tecniche – come i tutorbot – piuttosto che qualcosa modellato dalle politiche e dalle istituzioni educative.

Inoltre, è improbabile che i robot per l’apprendimento personalizzato immaginati da Khan, Altman e molti altri funzionino nel modo pulito e ottimizzato che suggeriscono. Questo perché ogni volta che effettuano una chiamata API a un modello linguistico per i contenuti in risposta a una domanda di uno studente, attingono a vaste riserve di informazioni che molto probabilmente sono inquinate dalla disinformazione passata o da materiale parziale e discriminatorio, e forse potrebbero diventare ancora più numerose, così come i contenuti automatizzati inondano il web. Come ha affermato Singer nel rapporto del NYT,

I sostenitori PENSANO che i chatbot in classe potrebbero democratizzare l’idea del tutoraggio personalizzando automaticamente le risposte agli studenti, consentendo loro di lavorare sulle lezioni al proprio ritmo. I critici avvertono che i robot, addestrati su vasti database di testi, possono fabbricare una disinformazione apparentemente plausibile, rendendoli una scommessa rischiosa per le scuole.

Come tutti i modelli linguistici, i tutorbot sarebbero “motori di plagio” che raccoglierebbero testi passati in nuove formazioni, e forse disinformazione in sostituzione di materiali curriculari autorevoli.

Forse in modo più drammatico, lo scrittore di fantascienza Bruce Sterling ha descritto i modelli linguistici come “bestie” . “I grandi modelli linguistici sono straordinariamente simili al mostro di Frankenstein di Mary Shelley”, scrisse Sterling, “perché sono un grande insieme ricucito di tanti piccoli pezzi e pezzi morti, che con poco voltaggio sono in grado di sedersi sul tavolo e parlare”.

Questi mostruosi sistemi di disinformazione potrebbero portare a quella che Matthew Kirschenbaum ha definito una “textpocalypse”: un futuro invaso da testi generati dall’intelligenza artificiale in cui la paternità umana viene ridotta e tutte le forme di autorità e significato sono messe a rischio. “È facile ora immaginare una situazione in cui le macchine potrebbero indurre altre macchine a pubblicare testo all’infinito, inondando Internet con testo sintetico privo di azione o intento umano: sostanza appiccicosa, grigia”, ha avvertito.

È difficile immaginare una soluzione significativa al problema 2 sigma di Bloom quando la padronanza di un concetto potrebbe essere messa a repentaglio dalla sostanza appiccicosa grigia “risputata” a uno studente da un tutorbot di apprendimento personalizzato. La situazione potrebbe addirittura peggiorare man mano che i modelli linguistici stessi degenerano attraverso l’ “avvelenamento dei dati” da parte dei contenuti generati dalle macchine.

L’intelligenza artificiale, tuttavia, è potenzialmente preziosa in altri termini.

Sistemi scalabili di ricerca di rendita

Una delle parti più illuminanti del rapporto di Natasha Singer sui test Khanmigo nelle scuole è che mentre le scuole che attualmente lo sperimentano lo stanno facendo senza dover pagare alcuna tassa, ciò non rimarrà tale dopo il test pilota. “I distretti partecipanti che vogliono testare Khanmigo per il prossimo anno scolastico pagheranno una quota aggiuntiva di 60 dollari per studente“, ha riferito Singer, sottolineando che la Khan Academy ha affermato che “i costi di calcolo per i modelli di intelligenza artificiale erano ‘significativi'”.

Sembra che ci siano simmetrie qui con il modello di business di OpenAI. OpenAI ha cercato il vantaggio di chi ha fatto la prima mossa nella corsa all’intelligenza artificiale generativa lanciando ChatGPT gratuitamente al pubblico alla fine del 2022, prima di introdurre successivamente il pagamento dell’abbonamento. Sam Altman ha descritto i suoi costi operativi come “allettanti”. Un’altra strategia di monetizzazione è l’integrazione dei suoi modelli di intelligenza artificiale con piattaforme e servizi di terze parti. Con Khanmigo integrato con GPT-4, sembra che i suoi costi informatici “significativi” saranno coperti addebitando alle scuole pubbliche la quota di abbonamento annuale di $ 60 per studente.

In altre parole, la Khan Academy sembra stia sviluppando un modello di business in cerca di rendita per Khanmigo in cui le scuole aiutano a sostenere i costi operativi dei modelli di intelligenza artificiale. Ciò riflette la crescente tendenza nel settore della tecnologia educativa verso modelli di capitalizzazione basati sulla rendita, in cui le aziende esigono una rendita economica dalle istituzioni educative sotto forma di abbonamenti continui per servizi digitali e possono trarre ulteriore valore anche dall’estrazione di dati sull’utilizzo.

Tuttavia, secondo il rapporto di Singer, le scuole che pagano l’affitto per Khanmigo potrebbero non essere una strategia praticabile a lungo termine.

Resta da vedere se le scuole saranno in grado di permettersi tutorbot assistiti dall’intelligenza artificiale. …  ostacoli finanziari suggeriscono che è improbabile che i chatbot in classe potenziati dall’intelligenza artificiale democratizzino il tutoraggio in tempi brevi.

Il signor Nellegar, direttore tecnico ed educativo di Newark, ha detto che il suo distretto sta cercando finanziamenti esterni per coprire i costi di Khanmigo questo autunno.

“Il costo a lungo termine dell’intelligenza artificiale è per noi motivo di preoccupazione”, ha affermato.

In un contesto attuale in cui le scuole sembrano sempre più obbligate a provare nuovi servizi automatizzati, le istituzioni che pagano l’affitto per l’edtech potrebbero portare a nuove sfide finanziarie e di raccolta fondi nel settore scolastico, anche se ciò rafforza il valore di mercato dell’IA nell’istruzione.

L’esempio di Khanmigo sembra indicare una notevole deviazione di fondi pubblici per coprire i costi dell’informatica basata sull’intelligenza artificiale, dirottando potenzialmente gli impegni di finanziamento delle scuole verso soluzioni tecnologiche a scapito di altri servizi o programmi.

In questo senso, l’intelligenza artificiale nell’istruzione potrebbe influenzare la capacità delle scuole di sostenere altre spese in un momento in cui molti si trovano ad affrontare condizioni di austerità e sottofinanziamento.

Esiste un paradosso tra questi accordi finanziari e l’approccio di apprendimento personalizzato ispirato da Bloom. Come ha osservato lo stesso Benjamin Bloom, il tutoraggio individuale su larga scala è troppo costoso perché i sistemi scolastici possano permetterselo. Gli appassionati di intelligenza artificiale hanno regolarmente suggerito che piattaforme di apprendimento personalizzate, come Khan Academy, potrebbero risolvere questo problema di scalabilità a basso costo. Ma come Khanmigo chiarisce, i tutorbot personalizzati e scalabili potrebbero essi stessi prosciugare le risorse finanziarie pubbliche delle scuole. Pertanto, l’intelligenza artificiale potrebbe non risolvere il problema dei costi del tutoraggio individuale su larga scala, ma riprodurli e amplificarli a causa dei costi di calcolo della scalabilità dell’intelligenza artificiale. Mettere pressione sulle finanze delle scuole sottofinanziate è, come ha sottolineato Singer, diverso dalla democratizzazione del tutoraggio, ma potrebbe essere la strada per un reddito a lungo termine per le aziende di intelligenza artificiale.

Sistemi resistenti e sostenibili

L’intelligenza artificiale generativa potrebbe rivelarsi utile in alcuni contesti educativi e per determinati compiti e scopi educativi. Le scuole potrebbero avere ragione nel provarla, ma con cautela, dato che i benefici previsti non sono dimostrati. Resta importante prestare attenzione anche ai suoi reali e potenziali effetti degenerativi. Oltre agli effetti degenerativi che può esercitare sulle condizioni professionali degli insegnanti, sui contenuti didattici e sulla sostenibilità finanziaria delle scuole, come ho sottolineato, l’IA ha anche effetti ambientali degenerativi e impatti sulle condizioni di lavoro dei lavoratorinascosti”  che aiutano a formare modelli generativi.

Ciò equivale a ciò che Dan Mc Quillan chiama “violenza estrattiva”, poiché “la richiesta da parte dei lavoratori a basso reddito di etichettare i dati o di inserire le mappe dei risultati nelle relazioni di potere coloniali, mentre si richiedono livelli di elaborazione strabilianti e  conseguenti emissioni di carbonio” che minacciano di peggiorare il degrado planetario. Allo stesso modo, nel contesto educativo, “qualsiasi entusiasmo per un maggiore utilizzo dell’intelligenza artificiale nell’istruzione deve fare i conti con la materialità di questa tecnologia e le sue conseguenze deleterie per il pianeta ” e per i lavoratori nascosti dietro le macchine.

L’entusiasmo per le applicazioni dell’intelligenza artificiale come i modelli linguistici “sta mettendo a dura prova la possibilità di una vera critica, poiché il mondo accademico è sommerso da un’ondata vorticosa di dubbi sull’opportunità di assimilarli con riluttanza”, continua Dan McQuillan.

La rassegnazione all’intelligenza artificiale come caratteristica inevitabile del futuro dell’istruzione è pericolosa, poiché rischia di bloccare gli istituti di istruzione, il personale e gli studenti in sistemi tecnici che potrebbero esacerbare anziché migliorare i problemi sociali esistenti, come il superlavoro degli insegnanti e il degrado delle opportunità di apprendimento e sottofinanziamento della scuola.

Il suggerimento di McQuillan è di resistere alle attuali formazioni di IA. “I ricercatori e i movimenti sociali non possono limitarsi a reagire alla macchina dell’intelligenza artificiale ma devono generare laboratori sociali che prefigurino forme socio-tecniche alternative”. Con i modelli di intelligenza artificiale di OpenAI attualmente testati nei laboratori in classe attraverso la Khan Academy, che tipo di laboratori sociali alternativi potrebbero creare gli educatori per costruire sistemi e futuri educativi più resistenti e sostenibili rispetto a quelli configurati dall’intelligenza artificiale degenerativa?

 


L’articolo è ripreso e tradotto dal blog dell’autore, https://codeactsineducation.wordpress.com/.

Print Friendly, PDF & Email

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.