|
Il lettore italiano è bombardato da anni da una continua rappresentazione caricaturale dell’università italiana: “L’università italiana non ha un ruolo significativo nel panorama della ricerca mondiale, “l’università continua a produrre …, anche se con alcuni distinguo, poca ricerca…” e di seguito. Ma se davvero l’università fosse improduttiva, costosa e corrotta come ci sarebbero arrivati tutti quei ragazzi in prestigiose università come Oxford o la London School of Economics? Semplicemente ci sono arrivati perché la preparazione che è fornita dall’università italiana è molto buona o ottima. Perché, come dimostra Giuseppe de Nicolao con un’analisi dei dati forniti dall’OCSE e da altre fonti internazionali, senza ricorrere a normalizzazioni ad hoc per modellare la realtà alla propria visione ideologica della realtà, “affermare che l’università italiana produce poca ricerca è falso in termini di produzione assoluta e ancor di più in rapporto alle (poche) risorse di cui dispone”. Perché “a fronte di un paese disperatamente bisognoso di accrescere il suo bagaglio culturale e professionale (i dati OCSE sulla percentuale di laureati italiani parlano chiarissimo) è stata condotta una campagna di denigrazione della ricerca scientifica italiana che, come mostrano le statistiche internazionali sulla produzione scientifica, progrediva al passo, o anche più velocemente, di quella delle altre nazioni”. (Fonte: F. Sylos Labini, FQ 25-04-2012) |
|
IL SISTEMA AVA (AUTOVALUTAZIONE, VALUTAZIONE E ACCREDITAMENTO) DELL’ANVUR |
|
|
|
Il sistema AVA, coordinato dall’ANVUR in base al D.L. n. 19 del 27-01-12, è un sistema integrato in cui l'elemento portante è l'assicurazione interna della qualità nei corsi di studio, nei dipartimenti e nell'intero ateneo. Il potenziamento dell'autovalutazione, unito all'avvio di forme di controllo esterno chiare e trasparenti, è finalizzato a un miglioramento continuo della qualità della formazione e della ricerca. L'intero sistema integrato AVA comporta un riassetto e una razionalizzazione del lavoro già in atto presso gli Atenei e per qualche aspetto richiederà nuovi adempimenti. Gli obiettivi dell’AVA sono: fornire alle università italiane informazioni utili per meglio sviluppare le loro future strategie nella formazione, nella ricerca e nelle attività di terza missione; fornire ai corsi di laurea e alle unità di ricerca elementi comparativi per un miglioramento della qualità delle loro attività; fornire al MIUR le informazioni necessarie ai fini della programmazione nazionale, alle autorizzazioni a operare e alle decisioni concernenti l’allocazione delle risorse; fornire agli studenti informazioni utili per le loro scelte formative fornire al mondo del lavoro informazioni circa la qualità dei programmi formativi e dei laureati; fornire alla società civile informazioni affidabili e trasparenti circa le attività del sistema universitario italiano. Link per saperne di più. (Fonte: M. Castagnaro, Coordinatore AVA - Consiglio Direttivo ANVUR 17-04-2012) |
VALUTAZIONE. LACUNE DEL SISTEMA DELLA PEER REVIEW |
|
|
|
Se il sistema della peer review da una parte permette un processo selettivo sulla qualità ed i contenuti di assoluto rispetto, dall’altra non è esente da lacune e critiche. Un primo punto discutibile consiste nella reale imparzialità del revisore, infatti, non è raro assistere a pubblicazioni dai contenuti non di alto livello all’interno di riviste piuttosto importanti (in funzione del settore d’interesse) e ritrovare articoli dai contenuti qualitativamente più elevati non pubblicati sulle stesse perché rifiutate durante la fase di peer review, oppure assistere alla richiesta di aggiunta di citazioni bibliografiche in qualche modo riconducibili al revisore stesso. Ovviamente per ridurre questo fenomeno è ti itenute discutibili, è possibile interpellare l’editore affinché controlli la bontà delle revisioni ed eventualmente sostituisca il revisore in discussione. Un secondo punto è legato all’eccessiva rigidità che questo sistema presenta davanti a temi la cui scientificità è oggetto di discussione, perché sebbene questo sistema permetta di evitare lo “spam scientifico“, dall’altra può anche generare “falsi positivi” a tale riguardo. (Fonte: S. Serra, appuntidigitali.it 22-pico l’impiego di almeno due revisori e, nel caso di revisioni r04-2012) |
|
DPCM CHE ATTUA LA PEER REVIEW BLOCCATO E IN ATTESA DI ESSERE SOSTITUITO DA UN DDL |
|
|
|
Un basilare tassello della prevista riorganizzazione del sistema di peer-review, e cioè il D.P.C.M. “Attuazione del principio della valutazione tra pari per la selezione dei progetti di ricerca ai sensi dell’articolo 20, comma 1, della legge 30 dicembre 2010, n.240.”, si è perso nei corridoi dei Palazzi dopo che un testo era stato adottato all’incirca a metà dello scorso anno, e circolato più o meno formalmente tra gli addetti i lavori. Abbiamo finalmente avuto notizie precise a seguito di una interrogazione al Ministro presentata dal sen. Ignazio Marino (che ne era stato il “papà parlamentare”). Dalle parole di Marino risulta infatti che il Ministro ha in effetti bloccato il DPCM, e intenderebbe invece presentare un proprio disegno di legge di riorganizzazione del settore. Del resto già in occasione della definizione del bando per il nuovo PRIN e per il FIRB-giovani (“Futuro in ricerca”), il Ministro Profumo aveva manifestato l’idea, già messa in atto, di deviare dagli orientamenti definiti nella 240/2010, disegnando “de facto” un diverso sistema di valutazione per la selezione dei progetti. Un motivo addotto dal Ministro per rivedere l’impianto previsto sarebbe quello di congegnare i programmi di finanziamento italiani quali “palestre di allenamento” per i programmi Europei, nei quali l’Italia risulta un perdente netto dal punto di vista dei flussi di denaro complessivi. (Fonte: cronaca.anvur.it 28-04-2012) |
VALUTAZIONE. IMPACT FACTOR |
|
|
|
Il disegno complessivo della riforma Gelmini dell’università è ambizioso e demiurgico: fare delle università degli enti produttori di didattica e ricerca con criteri economicistici di efficienza. La prima osservazione è che la produzione di cultura (non solo umanistica) non si presta a misurazioni quantitative precise, e ancor meno a valutazioni in termini di costi/rendimenti, almeno immediati. Come esempio, si può richiamare il tentativo di “meccanizzare” le valutazioni sulla produzione scientifica dei candidati, mediante l’applicazione dell’impact factor, che è appunto un indice numerico quali/quantitativo. Tale indice non può però essere esaustivo, infatti, “La valutazione dell’impact factor non è una semplice operazione aritmetica, ma presuppone un momento di discrezionalità della Commissione. L’indice d’impatto, infatti, deve essere considerato un elemento di giudizio sulla qualità complessiva della rivista più che sull’originalità scientifica dei singoli articoli che in essa sono pubblicati, che invece devono essere valutati anche sotto gli ulteriori profili previsti dall’art. 4, D.P.R. n. 117 del 2000, al fine di evidenziare la complessiva maturità scientifica del candidato” (TAR Lazio, sez. III, n. 8466/2011). (Fonte: D. Sammartino, leggioggi.it 15-04-2012) |
|
|
|
|
Pagina 5 di 20 |