Lo scopo dei sistemi come
Ava è garantire la conformità nelle università.
Ma davvero da quando si applica questo metodo la qualità degli atenei è migliorata?
-di Stefano De
Luca
Non so quanti lettori
sappiano che cos’è Ava. Quelli più giovani potrebbero pensare che sia il nome
dell’ultimo androide femminile creato dalla Hanson Robotics. Per quelli nati
negli anni Sessanta, come me, è invece indelebilmente legato alla pubblicità televisiva
di un noto detersivo, il cui protagonista era il pulcino Calimero e il cui
slogan era “Ava come lava!”. Ma per chi ha la ventura di conoscerlo nel suo
significato “accademico”, questo nome – anzi, questo acronimo – evoca ben altri
scenari.
Anzitutto, una selva di
altri acronimi (il più temuto è Cev, ma non vanno sottovalutati né Opis, né Nuv
o Pqa o Cpds, per non parlare di Sma e Sua). In secondo luogo, un complesso
labirinto di procedure, ciascuna delle quali deve lasciare dietro di sé uno o
più verbali o documenti, che rimandano ad altri documenti in un sistema
complicato, circolare e spesso ripetitivo, per non dire copiativo. In terzo
luogo, una montagna di adempimenti, alla sommità della quale si colloca la
Visita di accreditamento, con esame a distanza e in loco da parte di una
Commissione di esperti valutatori (ecco la famosa Cev!), evento finalizzato a
verificare se l’ateneo soddisfa i requisiti di qualità e base per l’emissione
di un giudizio di accreditamento o meno da parte dell’Anvur.
Si potrebbe quindi
sostenere, non andando tanto lontano dal vero, che Ava è la costituzione
materiale (e, in parte, anche formale) delle università italiane. Contiene, per
così dire, i principi fondamentali (la qualità, il miglioramento continuo), la
separazione delle funzioni (didattica, ricerca, terza missione), la previsione
formale dettagliata di ciò che i vari soggetti istituzionali (gli attori, nel
suo linguaggio) devono fare nello svolgimento delle loro funzioni, al fine di
garantire i principi fondamentali. In questo quadro, l’Anvur – che del sistema
è artefice (sia pure sotto il “velo” del ministero), manutentore e applicatore
– è una sorta di legislatore costituzionale e, al tempo stesso, di giudice.
Ma di quale qualità
stiamo parlando? Non certo di quella ascrivibile alla tradizione filosofica (se
fosse quella, la preferenza andrebbe senz’altro alle galilieiane o lockeane
qualità primarie, ossia quantificabili e misurabili). In realtà si tratta della
qualità nata in ambito manifatturiero e definita nelle teorie del management.
Lo scopo di questi sistemi è controllare e garantire la conformità non solo del
prodotto finito, ma dell’intero processo produttivo. In ambito universitario il
quadro di riferimento è lo standard Iso 9000:2015, che descrive i fondamenti
della gestione della qualità. Chi ha un minimo di familiarità con Ava, il
sistema di Assicurazione della qualità (Aq) degli atenei italiani, riconoscerà
molti di questi principi e un intero lessico: approccio per processi,
“portatori di interesse”, miglioramento continuo, decisioni prese sulla base di
evidenze (documentali), soddisfazione.
È ormai il momento di
guardare più da vicino Ava, ma per farlo è opportuno soffermarsi brevemente
sulla sua genesi. Uno dei primi documenti in cui si parla di “qualità” e di
“sistemi di Aq” è il Decreto ministeriale 386/2007 (ministro Mussi), che si
colloca a valle del processo di Bologna, con tutto quel che ne è seguito
(modello 3+2, ridefinizione degli ordinamenti didattici ecc.). Un paragrafo di
questo Dm si intitola Spostare la competizione dalla quantità alla qualità e dà
avvio, per una serie di ragioni (anche valide), a quel paradossale processo per
cui l’autonomia acquisita dieci anni prima dagli atenei si trasforma lentamente
in una condizione di eteronomia (un’eteronomia molto più stringente di quella
vigente ai tempi del Superiore ministero). Nel documento possiamo leggere che
“l’autonomia implica una competizione regolata fra le Università”, ma che
questa non può essere “mirata principalmente ad attrarre numeri maggiori di
iscritti in modo sostanzialmente indipendente dalla qualità dell’offerta o, addirittura,
abbassandone il livello”. Il baricentro della competizione, continua il Dm, va
dunque “spostato sulla qualità dell’offerta formativa, oltre che sulla
produttività scientifica delle strutture, verificandole e misurandole, in
entrambi i casi, mediante l’autovalutazione degli Atenei e la valutazione
esterna dell’Anvur, non appena costituita [l’Anvur era stata istituita nel
2006, ma è diventata, per così dire, operativa solo nel 2010]”.
Successivi Dm definiranno
poi in modo sempre più stringente i requisiti per i corsi di laurea. E infine
si arriva alla legge 240/2010, con la quale è stato introdotto in Italia un
sistema di accreditamento degli atenei e la creazione, nelle università, di
sistemi di Aq. Ma è l’Anvur il soggetto chiamato a definire le procedure, i
criteri e gli indicatori per lo svolgimento dell’attività di valutazione
periodica e a proporli al ministero, che li adotta per decreto. L’Anvur
definisce dunque le modalità con cui gli atenei devono strutturare i propri
sistemi di Aq e sovrintende all’esercizio attuativo della norma: dunque, come
ho già detto, è legislatore – sia pure sotto il velo del ministero – e giudice,
in questo caso senza veli.
Il baricentro della
competizione va “spostato sulla qualità dell’offerta formativa, oltre che sulla
produttività scientifica delle strutture”
E veniamo finalmente ad
Ava. L’acronimo significa Autovalutazione Valutazione Accreditamento. L’Anvur
ne ha messo a punto una prima versione nel 2014 (Ava1), che è stata rivista nel
2017 (Ava2) e ulteriormente rivista nel 2022 (Ava3). I suoi obiettivi principali
sono tre: 1) assicurare che le università eroghino uniformemente un servizio di
qualità; 2) assicurare un esercizio responsabile e affidabile dell’autonomia
universitaria nell’uso delle risorse pubbliche e nei comportamenti collettivi e
individuali; 3) migliorare la qualità delle attività formative e di ricerca.
Ava si rifà alle Linee guida europee per l’Aq del 2015 (Standards and
Guidelines for Quality Assurance in the European Higher Education Area),
secondo le quali la qualità è un concetto non facile da definire, ma
sostanzialmente riconducibile al “prodotto dell’interazione tra i docenti, gli
studenti e il contesto di apprendimento dell’Istituzione. In pratica,
l’assicurazione della qualità garantisce un contesto di apprendimento nel quale
il contenuto dei corsi di studio, le opportunità di apprendimento e le
strutture didattiche siano adatte allo scopo”. Una definizione, come si vede,
piuttosto circolare. Le Linee guida europee fissano anche una serie di principi
(preparare gli studenti non solo al loro futuro professionale, ma a una
cittadinanza attiva; creare conoscenze avanzate; stimolare la ricerca e
l’innovazione) e prevedono che tutti i portatori di interesse debbano essere
coinvolti nell’Aq.
Alcuni di questi principi
generali, passati in Ava, sono generalmente condivisibili. A fronte di tali
premesse, però, Ava è apparso sin dall’inizio viziato da una caratteristica di
fondo, cioè da un’ambizione che mi ha fatto pensare, si parva licet, al celeberrimo
progetto del seminario estivo tenutosi a Dartmouth nel New Hampshire nel 1956.
Si tratta del seminario che segna la data di nascita del campo di ricerca (e
dello stesso nome) dell’Intelligenza artificiale. Quale era l’idea di fondo di
quel seminario?
“Lo studio procederà
sulla base della congettura che ogni aspetto dell'apprendimento o di qualsiasi
altra caratteristica dell'intelligenza possa essere descritto in linea di
principio in modo così preciso da poter essere simulata da una macchina”.
Proviamo ora a sostituire
qualche parola, adattandola al nostro tema:
“Il sistema sarà definito
sulla base della congettura che ogni aspetto dell’apprendimento o di qualsiasi
altra caratteristica dell’attività universitaria possa essere descritto in
linea di principio in modo così preciso da poter essere implementato come una
macchina”.
Come è noto, l’approccio
di Dartmouth (detto logico-simbolico) funzionava solo nei mondi chiusi della
logica o dei giochi, mentre ha fallito ogni volta che lo si è applicato al
mondo reale, vista la varietà, le ambiguità e l’imprevedibilità dello stesso.
Analogamente, i sistemi di Aq hanno un difetto di fondo, perché
l’ingegnerizzazione dei processi universitari non solo è incapace di contenerne
la complessità e la variabilità, ma finisce per costringerle in una gabbia
d’acciaio che, a differenza di quella immaginata da Weber, non è nemmeno così
efficiente. È perlopiù costrittiva e faticosa. E questa caratteristica si è
andata accentuando col tempo.
Le attività di
preparazione degli atenei alla verifica dei propri sistemi di Aq sono divenute
sempre più complicate e onerose, poiché si è verificata una continua crescita
di dettami formali. Il che è inevitabile, se la logica è quella di voler
descrivere ogni processo in dettaglio, per poterlo poi “misurare”. Con questo
tipo di approccio si verifica il fenomeno dell’esplosione combinatoria. Di qui
il paradosso per cui ogni nuova versione di Ava è più complicata, anche se
l’Anvur afferma (excusatio non petita…) che il sistema è stato semplificato. Si
prendano i seguenti passi tratti, rispettivamente, dalle Linee guida ad Ava2 e
ad Ava3:
“Innanzitutto, si è
proceduto a una revisione dei Requisiti e degli Indicatori di qualità e a un
ripensamento complessivo della loro articolazione al fine di recepire i
principi enunciati dagli Esg 2015 e a realizzare una struttura più snella e
compatta […]”
“Come prima attività,
l’Anvur ha proceduto a una riorganizzazione e revisione dei Requisiti e degli
aspetti da considerare e a un ripensamento complessivo della loro
articolazione, al fine di realizzare una struttura più snella e compatta […]”.
In realtà, senza scendere
nei dettagli, mi limito a osservare quanto segue: in Ava2 avevamo quattro
Requisiti, articolati a loro volta in 11 Indicatori e in 34 Punti di
attenzione. In Ava3 i Requisiti vengono ridenominati Ambiti di valutazione e
passano da 4 a 5; gli Indicatori sono sostituiti dai Punti di attenzione, che
sono 39; e i Punti di attenzione si articolano in 84 Aspetti da considerare. Al
di là della terminologia (qui la fantasia burocratica dà il meglio di sé) si
passa da uno schema 4-11-34 a uno 5-39-84. Come questo possa essere più snello
e compatto è un mistero ineffabile. Né va dimenticato che, nel modello finale,
gli Indicatori ricompaiono a sinistra degli Aspetti da considerare e sono
talvolta affiancati da “Altri indicatori”. Quindi abbiamo una sorta di
movimento a fisarmonica, che parte dai 5 Ambiti di valutazione, si allarga in
39 Pda e si espande in ulteriori 84 Adc, per poi contrarsi in 37 Indicatori e
chiudersi in 9 Altri indicatori.
Rispondere ai quesiti
(poco importa che manchi il punto interrogativo) e ai molteplici aspetti in cui
si articolano implica una enorme sequenza di operazioni di cui spesso sfugge il
senso, e che devono essere illustrate in un amplissimo numero di documenti, che
la stessa Cev non può leggere in modo accurato, finendo per svolgere un vaglio
solo formale. Dal canto loro, gli atenei cercano di superare con il miglior
risultato, o il minor danno, una procedura di cui si sente il notevole peso
senza vederne consistenti vantaggi. E per raggiungere questo risultato
impiegano non poche risorse (economiche e umane) per mandare docenti e
amministrativi a seguire i corsi di formazione e/o aggiornamento sul modello
Ava (conflitto di interessi?).
Alla luce di queste
considerazioni la domanda è la seguente: quanto è migliorata la qualità degli
atenei da quando si applica Ava? E quali costi ha comportato (e comporta)
l’applicazione di questo sistema? Mi riferisco ai costi per le finanze
pubbliche e ai costi “umani” in termini di tempo dedicato dai docenti a queste
attività. Sarebbe interessante ascoltare qualche risposta in merito; risposta –
questa volta è il caso di dirlo – basata su evidenze documentali, di tipo
quantitativo. Attendiamo con fiducia.
Rivista il Mulino
Nessun commento:
Posta un commento