Valutazione. Come deve essere imparziale |
|
|
|
Nel mondo accademico, da qualche tempo e da più parti si sottolinea con forza come i criteri di valutazione delle pubblicazioni formulati dall’ANVUR (l’Agenzia nazionale di valutazione del sistema universitario e della ricerca) siano troppo astratti e “brutali”, soprattutto se applicati alle discipline umanistiche. Quantità di citazioni (il cosiddetto impact factor), presenza o meno delle riviste in elenchi internazionali compilati in base a criteri discutibili e talora poco chiari, maggiore importanza attribuita ai lavori redatti in lingue straniere (a prescindere dalla loro ampiezza e dal loro impegno): tutti parametri, si dice, che forse possono funzionare per gli scienziati, ma che certo sono impropri in ambito umanistico, dove capita spesso che lavori serissimi siano poco citati, che riviste serissime facciano fatica a rispettare certi requisiti formali (la puntualità delle uscite, ad esempio, o la presenza nella maggior parte delle principali biblioteche internazionali), che le riviste e le case editrici più qualificate siano italiane e pubblichino prevalentemente in italiano. Tutto ciò, almeno in parte, è vero; ma non è chiaro quale possa essere l’alternativa. Infatti, ove non si voglia difendere l’ormai indifendibile diritto a non essere valutati (e a non far dipendere dalla valutazione stipendi, carriere, finanziamenti), dovrebbe essere evidente che una valutazione davvero imparziale non può entrare nel merito di ciò che si pubblica, non può, in altre parole, formulare giudizi di valore previa lettura analitica delle pubblicazioni. La valutazione di merito deve essere eseguita a monte, da riviste e case editrici che adottino seriamente il metodo della peer-review, svolgendo una funzione di filtro che non può spettare a un organismo nazionale e che pertanto questo organismo nazionale non può non prendere per buona. (Fonte: F. Bausi, rivistailmulino.it 22-09-2011) |
Valutazione. Standard qualitativi |
|
|
|
Decreto MIUR 4 agosto 2011. Gazzetta Ufficiale del 26 agosto 2011 - n. 198. Criteri per l'individuazione degli standard qualitativi, riconosciuti a livello internazionale, per la valutazione, ai sensi e per gli effetti dell'articolo 24, comma 5, della legge 30 dicembre 2010, n. 240, dei ricercatori titolari dei contratti. (Fonte: http://www.ingegneri.info/legge/19879.html) |
|
Valutazione. Gli indicatori più utilizzati per misurare la produttività scientifica |
|
|
|
Intervista a Emanuela Reale, dell’Istituto di ricerca sull’impresa e lo sviluppo (CERIS) del CNR e chair della conferenza ENID (European Network of Indicators Designers) svoltasi a Roma. Quali sono, oggi, gli indicatori più utilizzati per misurare la produttività scientifica europea?“I cosiddetti indicatori macro: la spesa per la ricerca sul Prodotto interno lordo, il numero di articoli scientifici pubblicati dai ricercatori rispetto al numero di abitanti di un paese, o il numero di pubblicazioni per ricercatore, per fare degli esempi. Questo tipo di indici può funzionare per valutare il posizionamento in ricerca e sviluppo di un paese, ma non possono essere utilizzati per valutare la produttività a livello delle singole istituzioni, o addirittura a livello di singoli programmi di ricerca”.E quali sono, secondo lei, quelli che dovrebbero essere ripensati? “Uno degli aspetti da rivedere è quello dell’internazionalizzazione dei ricercatori, ovvero il movimento degli scienziati all’interno dell’Unione Europea e verso l’estero. Questo è un indicatore che in un certo senso penalizza l’Italia. Mi spiego. Se si considera la produttività in termini di articoli per singolo ricercatore, i valori del nostro paese sono abbastanza buoni, anche se è bene sottolineare che in genere si tratta di una produttività concentrata in pochi gruppi. Lo scenario, però, cambia molto se consideriamo il numero di articoli per abitanti. In questo caso, infatti, l’Italia è dietro al resto d’Europa, dove in media ci sono 6,1 ricercatori ogni mille lavoratori, contro i 3,8 che abbiamo in Italia. Un indicatore che tenga conto dell’internazionalizzazione potrebbe modificare questo scenario, considerando che i nostri scienziati si muovono molto verso altri paesi. Purtroppo la situazione è asimmetrica: pochi sono i cervelli che arrivano nel nostro paese”. Quali altri indicatori sono stati discussi nel corso dei lavori? "La conferenza ha posto l’accento anche sull’importanza di valutare il contributo delle collaborazioni tra pubblico e privato, per capire quanto gli indicatori bibliometrici di pubblicazioni di questo tipo siano effettivamente rappresentativi della collaborazione medesima. Questo è particolarmente importante per le agenzie finanziarie, perché consente loro di capire l’effetto di alcuni programmi di finanziamento che hanno avviato, sia che riguardino un prodotto o un progetto di ricerca. Infine sono stati analizzati i sistemi per valutare il prestigio delle università, i cosiddetti university rankings e nuovi approcci per riconoscere la produttività scientifica dei piccoli paesi”. Come vengono recepite le innovazioni in materia di indicatori della produttività scientifica? “Prima che un nuovo indicatore sia accolto e applicato, è necessario che superi diverse fasi: una serie di test, per capire se può essere compatibile con altri valori di produttività scientifica e se è in grado di riflettere il fenomeno per cui deve essere utilizzato. Solo dopo può essere applicato; di solito, la prima a farlo è l’Unione Europea, poi a cascata, i diversi governi”. (Fonte A.L. Bonfranceschi, galileonet.it 09-09-2011) |
Valutazione. L’ANVUR valuterà anche la didattica |
|
|
|
Per quanto riguarda la valutazione della didattica "l’Agenzia - ha spiegato Stefano Fantoni presidente ANVUR - sta predisponendo le nuove procedure che si baseranno sull’operato dei nuclei di valutazione degli atenei". Sono inoltre previste delle visite periodiche in tutte le università per verificare il livello di efficienza ed efficacia delle attività: dai servizi agli studenti al grado di apprendimento degli studenti. "Puntiamo - ha detto il presidente dell’ANVUR - ad arrivare a una verifica annuale della qualità della didattica e del livello di funzionalità dei singoli atenei". "Il processo di valutazione - ha spiegato Fantoni -, seguendo criteri di obiettività e trasparenza, investirà tutti i settori con l’obiettivo di premiare il merito e spronare gli atenei ad adottare politiche che favoriscano la qualità e l’allocazione razionale delle risorse pubbliche". Un processo che coinvolgerà principalmente tre soggetti: gli atenei e i centri di ricerca, i dipartimenti delle università e il corpo docente, circa 67 mila persone tra professori e ricercatori. La valutazione contribuirà a una ripartizione più premiale dei finanziamenti di quanto non sia l’attuale, sia sulla riprogrammazione delle attività didattiche e di ricerca. Attualmente la quota premiale che deriva dalla misurazione dei risultati della didattica e della ricerca è il 10 per cento del Fondo di finanziamento ordinario (Ffo) degli atenei. "Nei prossimi anni - ha auspicato Fantoni - questa quota potrebbe arrivare al 20 per cento e forse anche oltre". (Fonte: sciencesystemfvg.it 14-09-2011) |
|