Riflessioni sul sistema nazionale di valutazione

I profondi limiti di un’impostazione soltanto docimologica

Carlo Fiorentini 

 In tutti i paesi occidentali statistiche relative all’educazione sono state, da molto tempo, predisposte ed utilizzate per prendere decisioni politiche; tuttavia, negli ultimi quindici anni è aumentata ovunque la necessità di disporre di informazioni più accurate, più ampie e più fondate scientificamente sul funzionamento dei sistemi scolastici. Costituisce, inoltre, un’esigenza fondamentale di un paese democratico mettere tutti i cittadini nelle condizioni di poter valutare il raggiungimento degli obiettivi assegnati al sistema scolastico dalla comunità. Sul piano teorico non si può, quindi, che condividere le considerazioni degli esperti e dei politici che hanno individuato anche in Italia la necessità di istituire una struttura (generalmente denominata “sistema – o servizio – nazionale di valutazione”) che dovrebbe essere in grado di fornire informazioni significative sul sistema scolastico. Le nostre perplessità sorgono quando si entra nel merito e ci si domanda: quali informazioni, con quali strumenti, e per quali scopi? Le nostre perplessità sono, inoltre, amplificate dal modo superficiale, acritico e preconcetto con cui la maggior parte dei commentatori ha utilizzato i dati, le informazioni presenti in pubblicazioni internazionali, quali quelle dell’OCSE.

                                           Gli indicatori internazionali dell’educazione

   L’individuazione di indicatori internazionali dell’educazione è molto recente: l’esigenza è nata a metà degli anni ottanta e si è concretizzata all’inizio degli anni novanta. In realtà, un primo tentativo era già stato effettuato all’inizio degli anni settanta ma esso fu un fallimento in quanto era ormai giunta alla fine “una fede quasi ingenua”, atteggiamento molto diffuso negli anni cinquanta e sessanta, “nell’applicabilità dell’approccio esplicativo nelle scienze sociali, che presuppone l’uso del modello quantitativo o positivistico della ricerca”[1]. Tuttavia, dopo la pubblicazione nel 1983 del rapporto sulla scuola americana “A nation at risk”, prima negli Stati Uniti e poi negli altri paesi dell’OCSE si è velocemente sviluppata l’esigenza di avere informazioni comparate sui vari sistemi scolastici, di disporre, cioè, di un insieme di indicatori.

   Dopo alcuni anni di lavori e di dibattiti molto vivaci, nel settembre 1991, i delegati, presenti a Lugano all’Assemblea generale del progetto INES – Indicatori Internazionali dell’Educazione scolastici – , dell’OCSE, decisero di pubblicare una prime serie di indicatori internazionali[2], nonostante fossero consapevoli “che ci sarebbero stati degli errori, che molte importanti aree non sarebbero state coperte e che sarebbe stato difficile evitare interpretazioni erronee”[3].

   Gli indicatori dell’OCSE sono stati organizzati in 3 raggruppamenti che danno informazioni: 1) sui contesti demografico, economico e sociale, 2) su aspetti caratterizzanti i sistemi educativi, quali ad esempio le spese per l’istruzione, la scolarizzazione, le ore di insegnamento, la retribuzione degli insegnanti, il numero medio di alunni per classe, ecc., 3) sui risultati dell’istruzione.

   Che cosa si intende per indicatore in campo educativo? Una qualsiasi statistica è un indicatore?

Un indicatore è un insieme di dati che siano in grado di fornire alcune informazioni sullo stato e sull’evoluzione di un sistema scolastico. Conseguentemente una qualsiasi statistica non è un indicatore. “Il problema cruciale nello sviluppo di indicatori dell’educazione non è semplicemente quello di assicurare la validità di una misurazione quantitativa in campo educativo”; le difficoltà maggiori derivano dal contesto politico. “La natura intrinsecamente politica dell’esercizio risulta esasperata perché un indicatore è specificamente caratterizzato dal contesto”, e può quindi essere interpretato soltanto se viene incrociato con altri indicatori[4]capaci di dare informazioni sufficienti per comprendere un determinato sistema educativo. “Questo equivale a dire che un indicatore da solo non è informativo. Per avere la qualifica di indicatore, una misura deve avere una comprensibile relazione con altri indicatori”[5].

                                          Problemi fondamentali irrisolti

   La maggior parte degli indicatori danno informazioni sul contesto economico – sociale e sul quello scolastico; la parte meno sviluppata è la terza, quella che si riferisce ai risultati dell’insegnamento. E sostanzialmente, la situazione non è cambiata nel corso degli anni 90 con la pubblicazione da parte dell’OCSE degli aggiornamenti degli indicatori. Questa asimmetria nello sviluppo degli indicatori non è, tuttavia, casuale, ma deriva da un ostacolo epistemologico di difficile soluzione, d’altra parte molto chiaro anche allo staff responsabile del progetto OCSE: “Senza dati affidabili sui risultati del sistema educativo, una serie di indicatori non solo è incompleta, ma, ciò che è peggio, ha una limitata applicabilità”. Uno degli ostacoli maggiori “è la mancanza di strumenti adeguati per misurare i risultati o esiti del sistema educativo e per valutare, ciò che è ancora più difficile, le conseguenze a lungo termine dell’educazione per l’individuo, la famiglia, la comunità locale, il posto di lavoro, l’economia nazionale e globale”[6].

   Inoltre, “mentre vi è abbastanza unanimità nel ritenere che una valutazione del successo scolastico non può e non deve essere ridotta a una valutazione del rendimento dello studente in alcune materie fondamentali, si è rilevato molto difficile raggiungere un accordo sugli aspetti precisi che dovrebbero essere valutati per essere sicuri che la natura sfaccettata dell’educazione sia riconosciuta in tutta la sua complessità”[7].

                                      Metodi di valutazione e loro critica

    Tutta la problematica degli indicatori internazionali sembrerebbe nascere dall’esigenza di migliorare i risultati dell’apprendimento, ma qui emerge immediatamente un paradosso: sostanzialmente l’unico metodo utilizzato per valutare questi, l’impiego delle cosiddette prove oggettive di conoscenza, si giustifica non tanto per la sua adeguatezza, quanto per la sua economicità. Infatti, la maggior parte dei ricercatori più significativi a livello internazionale, sia quelli più critici che quelli ortodossi, si preoccupano tutti, seppur con differente enfasi, di evidenziare i limiti dei test a scelta multipla o similari.

   De Landsheere, uno dei maggiori esperti internazionali di valutazione, indica i seguenti rischi: 1) che gli insegnanti, le scuole e le famiglie ritengano significative soltanto le conoscenze del tipo dei test e che conseguentemente l’insegnamento venga piegato sostanzialmente all’esigenza di mettere gli studenti in condizione di superare i test, 2) che la maggior parte dei test a scelta multipla non siano prove di prestazione, ma di recitazione ( di pura memoria o di applicazione stereotipata); 3) il fatto che ci si limiti alla verifica soltanto di alcuni obiettivi dell’educazione.

Lucia Mason ha riassunto in questi termini le preoccupazioni ed i problemi emersi nel dibattito americano:” Innanzitutto è stato ampiamente messo in evidenza che i test di apprendimento (le tipiche prove a scelta multipla) sono stati concepiti in riferimento a un’impostazione teorica di tipo comportamentista secondo cui ciò che si deve imparare può essere suddiviso in obiettivi distinti e separati, corrispondenti ad abilità altrettanto “discrete”, scomponibili. A loro fondamento viene cioé posto un modello riduzionista e gerarchico dell’apprendimento, che contraddice nettamente le acquisizioni recenti sullo sviluppo del pensiero e la conoscenza.)[8]. .

Bottani ha recentemente scritto le seguenti considerazioni: “I modelli di valutazione sono forme di controllo che inducono i docenti e le scuole a modulare i programmi d’insegnamento in funzione delle prove strutturate. In un regime di competizione o di quasi mercato tra scuole è impossibile sfuggire alla dittatura dei test, ossia alla pressione esercitata indirettamente sui docenti per adattare l’insegnamento in funzione del tipo di prove, dato che le scuole non possono permettersi di ottenere medie scadenti ai test. Tra l’altro ci si imbatte sempre nello stesso problema: di quali risultati si parla? Che cosa si vuole misurare? Non è affatto semplice delimitare le prestazioni delle scuole. A scuola, tra l’altro si imparano valori, comportamenti, atteggiamenti che non si possono facilmente misurare. Le prove standardizzate – i cosiddetti test – servono fino a un certo punto, perché i test non permettono di misurare la creatività, il pensiero critico, la perseveranza, la flessibilità di pensiero, la motivazione, l’affidabilità, l’entusiasmo, l’immagine di sé, l’autodisciplina, l’empatia, la coscienza civica, e così via”[9].

   Il comportamentismo, alla base degli usuali test di apprendimento, è stato messo da parte dalla ricerca psicologica più significativa degli ultimi decenni. Quindi, se le motivazioni della loro persistenza non possono essere ricondotte alla solidità della loro fondazione scientifica, esse vanno ricercate altrove, da una parte, come abbiamo già evidenziato, nella loro economicità, e dall’altra nell’essere funzionali alle pratiche di insegnamento, purtroppo ancora molto diffuse, della scuola tradizionale, della scuola del programma, caratterizzate sostanzialmente dal nozionismo e dall’addestramento.

                                 Gli indicatori sono essenzialmente entità politiche

   I profondi limiti degli indicatori internazionali attualmente disponibili sia in relazione alla loro validità che alla loro completezza ne portano a sottolineare la dimensione di entità politiche piuttosto che di entità scientifiche.

   Carla Fasano, applicando alle informazioni il concetto di risorsa e la connessa legge dei rendimenti decrescenti, ha indicato come difficoltà principale nella costruzione degli indicatori “il fatto che una conoscenza completa e documentata del sistema educativo del tipo necessario per costruire sistemi di indicatori scientificamente validi è praticamente irragiungibile”[10]. Non dissimili sono le considerazioni di due dei principali responsabili del progetto OCSE, che ne attribuiscono la causa maggiore “alla debole posizione disciplinare e scientifica della pedagogia come campo di ricerca”: “La tentazione è quella di finalizzare tutto il lavoro al miglioramento della base scientifica degli indicatori. Se questo fine dovesse diventare preminente, allora la pubblicazione di una serie di indicatori dell’educazione potrebbe davvero essere rinviata all’infinito, perché un indicatore, come si potrebbe dimostrare non è mai perfetto”[11].

   Gli indicatori dell’educazione sono, quindi, essenzialmente, entità politiche. “Lo sviluppo d’indicatori è generalmente condotto e sorretto da interessi politici, quali le aspettative che gli indicatori possano tradursi in accurate informazioni circa la condizione dell’educazione e che queste informazioni possano essere una parte del processo di miglioramento scolastico. Inoltre, gli indicatori e i sistemi stessi di indicatori sono entità politiche. La loro costruzione riflette particolari presupposti circa la natura e le finalità dell’educazione, ed essi incarnano spesso convinzioni circa le direzioni che una riforma dovrebbe prendere. Gli indicatori che vengono scelti spingeranno il sistema educativo verso i presupposti e le convinzioni che essi incarnano; in altre parole, ciò che viene misurato ha probabilità di diventare ciò che conta”[12].

   D. Huttal conclude un suo contributo, sottolineando che generalmente per aumentare la validità di un sistema di indicatori saranno necessari costi maggiori, e che conseguentemente la qualità del sistema dipenderà dalle scelte politiche di “coloro che tengono i cordoni della borsa. (…) Ne consegue, innanzitutto, che elementi come la rilevanza politica e l’agevolazione delle linee di condotta avranno probabilmente maggiore significato, forse a spese della validità “scientifica” della struttura”[13].

   C. Fasano sottolinea, conseguentemente, l’importanza della diffusione della consapevolezza che un qualsiasi sistema di indicatori è caratterizzato “da una certa quantità di non-conoscenze”, per non correre il rischio, considerendoli ottimali, di riorientare i sistemi scolastici “verso i modelli organizzativi impliciti negli attuali sistemi di indicatori”[14]. “Si debbono trovare dei mezzi, quindi, per amministrare le imperfette conoscenze che influiscono sugli attuali sistemi di indicatori e per sviluppare, forse, strategie mirate a gestire la “non-conoscenza”[15].

   Ed infine, si chiede se questa capacità riflessiva sugli indicatori è ipotizzabile che si possa sviluppare nello stesso modo significativo sia negli esperti di queste problematiche che nelle burocrazie scolastiche, nei giornalisti e nei genitori.

                  I profondi limiti di un approccio soltanto di tipo docimologico

    Come è stato già precedentemente evidenziato, il punto di debolezza fondamentale della valutazione “oggettiva” usuale è quella di essere connessa ad una teoria psicologica, il comportamentismo, inconsistente sul piano scientifico, e, tuttavia, adeguata ad una concezione dell’insegnamento di tipo tradizionale, progettata per una scuola elitaria, centrata sulle discipline, assunte nella loro struttura specialistica e formalistica. Si è precedentemente analizzato i limiti delle prove privilegiate di questa impostazione, i test a scelta multipla, e si è prospettata le necessità, se si vuole effettivamente migliorare l’efficacia formativa del sistema scolastico, dell’utilizzo di molti altri strumenti di valutazione, che non si limitino a constatare lo stato finale, la presenza o l’assenza della nozione.

   Inoltre, il limite fondamentale della maggioranza dei test a scelta multipla, anche in molte ricerche internazionali, come ad esempio quelle IEA sulle scienze sperimentali, è di essere generalmente prove di conoscenza nozionistica, desunte dal programma tradizionale delle discipline accademiche, prescindendo completamente da una riflessione psicologica ed epistemologica che sia in grado di individuare un curricolo adeguato alla strutture cognitive e motivazionali degli studenti nelle varie fasi del processo educativo. Rimanendo nell’ambito dei test a scelta multipla, vi sono, tuttavia, profonde differenze, ad esempio, fra la maggioranza dei test preparati per scopi valutativi, quali quelli citati precedentemente delle indagini IEA sulle scienze, e quelli predisposti da esperti di didattica disciplinare e da psicologi per investigare le concezioni scientifiche degli studenti[16].

   Riteniamo, in altre parole, che una seria ricerca sui risultati dell’insegnamento non possa essere effettuata soltanto da esperti di docimologia, ma debba essere strettamente connessa alla ricerca didattica a carattere multidisciplinare (con competenze disciplinari, epistemologiche e psicopedagogiche) sul curricolo delle varie discipline.

   Il Gruppo di Ricerca e Sperimentazione in Educazione Scientifica del CIDI di Firenze pubblicò un Dossier[17] sulla terza indagine IEA Timss, nel quale emergeva, avendo analizzato gli item impiegati, una differenza radicale tra le prove di matematica e quelle di scienze; infatti, mentre gli item di matematica erano generalmente tesi ad accertare competenze significative sia in conformità ai programmi che all’età degli studenti, gli item di scienze risultavano generalmente nozionistici, in consonanza, cioè, con una concezione dell’insegnamento scientifico enciclopedica, specialistica, superficiale. E’ emblematico di un atteggiamento acritico (dovuto probabilmente alla mancanza di competenze epistemologiche e didattiche scientifiche ed quindi ad un approccio banalmente di tipo docimologico), invece, un recente saggio sulla questa indagine presente in una pubblicazione del CEDE, di cui ne riprendiamo alcuni passaggi:

“Quando nel novembre 1996 la IEA rese pubblici i risultati del Third International Mathematics and Science Study (Timss) per l’ottavo anno di scolarità (corrispondente alla III media italiana), ci si rese conto immediatamente che il Timss avrebbe rappresentato un modello di indagine comparativa internazionale con cui confrontarsi per molti anni… D’altra parte gli operatori del settore si resero conto che i risultati del Timss, se letti attentamente, dettavano gli standard internazionali per gli apprendimenti di matematica e scienze nei livelli indagati (quarto anno di scolarità, ottavo anno ed ultimo anno) ai quali i paesi dovevano almeno adeguare i propri sistemi scolastici se non volevano rimanere indietro rispetto al contetso mondiale…L’indagine 99 ha riutilizzato per raccogliere informazioni gli strumenti sviluppati nel 95: Le prove per la scuola media che comprendono la maggior parte degli argomenti di matematica e di scienze che si insegnano nel mondo, e i questionari per gli studenti, gli insegnanti, per i dirigenti scolastici e per gli esperti… Il curricolo proposto si può studiare da un’analisi dei programmi ufficiali/nazionali, dei libri di testo e degli esami”[18].

   Il ragionamento viene costantemente condotto nello stesso modo per la matematica e per le scienze, come se non fosse una conoscenza quasi ovvia che mentre la matematica occupa un posto fondamentale ed ha programmi simili in quasi tutti i paesi del mondo, la situazione delle scienze è opposta. Inoltre, negli ultimi dieci anni, molte ricerche hanno evidenziato la contraddizione esistente tra i programmi di scienze italiani e l’impostazione nozionistica dei manuali.

   In realtà la differenza viene segnalata, ma interpretata in modo fuorviante. Si afferma infatti: “per le scienze, la situazione è diversa dalla matematica: le aree di contenuti coperte dalla prove sono all’interno del programma ministeriale ma, data l’ampiezza del programma stesso, non tutti i contenuti sono ugualmente trattati o approfonditi dagli insegnanti che, giudicando il programma

ministeriale troppo ampio, generalmente fanno una scelta individuale degli argomenti da insegnare nell’arco dei tre anni, come risulta dal questionario insegnante…Dall’analisi delle risposte al questionario insegnante si può affermare che molti argomenti non arrivano al 90 % degli studenti: per i contenuti di fisica, restano indietro le particelle atomiche (89% di studenti), le forze e il moto (85% di studenti), l’energia (77% di studenti), e sono insegnati a pochi studenti l’elettricità e il manetismo (55% di studenti), le onde e il suono (44% di studenti) e la luce (38% di studenti)”[19].

Come commentare queste considerazioni: incompetenza o follia? I programmi di scienze del 1979 per la scuola media e del 1985 per la scuola elementare sono programmi che lasciano alle scuole ed agli insegnanti totale libertà di scelta dei contenuti. Quei programmi danno invece indicazioni vincolanti nella prima e nella terza parte, ove si dice che l’insegnamento deve realizzare determinate finalità ed obiettivi che possono essere così sintetizzati: contribuire allo sviluppo delle competenze osservative-logico-linguistiche dello studente. L’acquisizione delle conoscenze scientifiche deve, cioè, avvenire in un contesto metodologico adeguato. Nella terza parte dei programmi c’è scritto che l’insegnante deve partire dalla realtà, da situazioni problematiche, deve centrare l’attività su osservazioni e sperimentazioni, deve impostare una didattica per laboratori. E laboratorio non significa necessariamente un’aula attrezzata (se c’è è meglio); il laboratorio è innanzitutto la classe: un’impostazione per laboratori è sostanzialmente un fatto mentale più che materiale. D’altra parte, se così non fosse, essi sarebbero programmi folli, perché, avendo generalmente le scienze soltanto due ore alla settimana, per trattare ciascun contenuto sarebbero disponibili tempi adatti a spot televisivi. Se tutti gli argomenti di fisica precedentemente elencati fossero affrontati, non rimarrebbe nessuno spazio per trattare problematiche chimiche, biologiche, ecc. Ciascuno di questi contenuti è un mondo complesso: insegnare le particelle atomiche che cosa significa? Disegnare un bel modellino di atomo, e assegnare i nomi, protone, neutrone ed elettrone; ciò può esser fatto velocemente, ma in questo modo la scuola si collocherebbe ad un livello inferiore alla scienza da bar.

Infine, ci troviamo di fronte ad un nodo di fondo: indagini internazionali sono, a nostro parere assurde, (anche senza tener conto degli item utilizzati) se i paesi non hanno programmi sostanzialmente sovrapponibili, come nel caso della matematica.

[1] N. Bottani, A. Tuijnman, Indicatori internazionali dell’educazione: struttura, sviluppo e interpretazione, in OCSE, Valutare l’insegnamento, Roma, Armando, 1994, p.27.

[2] Questa prima serie, costituita da 36 indicatori, ha visto la luce nel settembre 1992.

[3] N. Bottani, A. Tuijnman, op. cit., p. 41.

[4] In tutto l’articolo le sottolineature sono nostre.

[5] Ibidem, p. 40. Le precedenti considerazioni sembrerebbero sconosciute a molti esperti italiani, che hanno tratto conclusioni sulla scuola italiana sulla base di pochissimi indicatori, analizzati in modo isolato.

[6] Ibidem, pp. 35, 34.

[7] Ibidem, p. 35-36.

[8] L. Mason, Valutare la scuola, Padova, Cleup, 1996, pp. 85, 86.

[9] N. Bottani, Insegnanti al timone, Bologna, Il Mulino, 2002, p. 116.

[10] Ibidem, p. 79.

[11] N. Bottani, A. Tuijnman, op. cit. p. 34.

[12] L. Burstein, J. Oakes, G. Guiton, Education Indicators in Encyclopedia of Educational Research, 1992, vol II, p.410.

[13] D. Nuttal, Scelta degli indicatori, in OCSE, op. cit. p. 106.

[14] C. Fasano, op. cit., p. 79.

[15] Ibidem, p. 83.

[16] N. Grimellini Tomasini, G. Segré, Conoscenze scientifiche: le rappresentazioni mentali degli studenti, Firenze, La Nuava Italia, 1991. G. Cavallini, La formazione dei concetti scientifici, Firenze, La Nuova Italia, 1995.

[17] Gruppo di ricerca e sperimentazione didattica di educazione scientifica del CIDI di Firenze, Le vie degli indicatori, Ecole-Dossier, 1998, n. 64, pp. 1-16.

[18] A. M. Caputo, Terza indagine internazionale sulla matematica e sulle scienze, in Istituto Nazionale per la Valutazione del Sistema di Istruzione (Cede), Ricerche valutative internazionali 2000, Milano, Angeli, pp. 43, 44.

[19] Ibidem, p. 52.