Home 2010 01 Aprile
01 Aprile
Mozione del CUN sul dottorato di ricerca PDF Stampa E-mail
Nell’adunanza del 24-03-2010 il Consiglio universitario nazionale ha approvato la seguente mozione, da inviare al ministro Gelmini, sull’addestramento al trasferimento tecnologico e alla valorizzazione della ricerca in cui si afferma il ruolo primario dell’Università nella formazione:
Visto il parere generale n. 9 sul dottorato di ricerca come da richiesta del Ministro del 15.09.2009, espresso nell’adunanza dell’1 e 2 Dicembre 2009; rilevata l’importanza che riveste per la formazione dei dottori di ricerca l’addestramento al trasferimento tecnologico e alla valorizzazione della ricerca, anche ai fini dell’inserimento nel mondo del lavoro; visto la nota della CRUI, su proposta dell’Agenzia nazionale per la Diffusione delle Tecnologie per l’Innovazione, relativa all’avvio di uno studio di fattibilità per definire, in collaborazione con la suddetta Agenzia, iniziative di formazione integrativa dei dottorandi in discipline tecniche, scientifiche e ingegneristiche sui temi del trasferimento tecnologico e con elementi di cultura d’impresa; visto che sui temi del trasferimento tecnologico e della cultura d’impresa molte università hanno avviato da tempo collaborazioni con associazioni imprenditoriali o singole imprese per attività formative integrative di ordine operativo; considerando positivamente tutte le iniziative che possano contribuire in modo efficace alla valorizzazione della ricerca e al trasferimento tecnologico; considerato che l’Università ha al suo interno competenze qualificate per fornire le conoscenze sulle suddette tematiche; considerato che il Dottorato di ricerca costituisce il terzo e più elevato livello della formazione universitaria, Il CUN ritiene opportuno richiamare che la formazione dei dottori di ricerca è compito istituzionale delle Università, e che ogni tipo di delega di tale compito ad altri Enti va integrato con la didattica universitaria e valutato con estrema attenzione.
 
Documento di proposta del CUN sui criteri per la valutazione della ricerca PDF Stampa E-mail
Il CUN nell’adunanza del 24 marzo 2010 ha approvato il seguente documento sulla valutazione della ricerca:
Introduzione
Ogni prospettiva di significativo e stabile sviluppo della ricerca pubblica italiana passa necessariamente attraverso una stretta combinazione tra disponibilità di risorse finanziarie e umane e aumento di efficienza nel loro utilizzo. Premessa indispensabile a tale aumento di efficienza è certamente l'acquisizione di una reale capacità di valutazione ex post dei risultati della ricerca, sulla cui base impostare politiche premiali e di incentivazione/disincentivazione. Le metodologie valutative, sulle quali è comunque indispensabile che si raggiunga un convinto e largo consenso, sono ancora oggetto di un vasto dibattito. Sarà quindi necessario formulare ipotesi di lavoro, al momento evidentemente provvisorie, e metterle concretamente alla prova per misurarne la validità, sempre mantenendo una chiara consapevolezza del fatto che nel breve-medio periodo, a fronte di evidenze negative, potranno imporsi revisioni anche sostanziali della impostazione inizialmente adottata. In ogni caso è necessario premettere all'esposizione di qualunque proposta operativa una serie di considerazioni volte a identificare le principali opzioni metodologiche e i loro possibili domini di applicazione, notando che in contesti differenti possono risultare adeguate opzioni anche molto
diverse tra loro.
Premessa generale
La varietà delle situazioni cui può riferirsi la procedura di valutazione della ricerca può essere sommariamente classificata secondo i seguenti principali parametri:
a) finalità della valutazione (finanziamenti, carriera, retribuzioni);
b) soggetti della valutazione (individui, dipartimenti, atenei);
c) metodologia valutativa (peer review, criteri bibliometrici, metodi misti);
d) oggetti della valutazione (articoli, monografie, brevetti, altri prodotti di ricerca);
e) aree disciplinari (scientifico-tecnologica, scienze della vita, umanistico-sociale).
In riferimento al punto a) (finalità della valutazione) occorre operare una prima e fondamentale distinzione tra le azioni volte a stabilire, anche mediante attribuzione di punteggi (rating), una vera e propria valutazione comparativa (ranking), sia tra individui sia tra istituzioni o strutture, al fine di reclutamento, avanzamento di carriera, finanziamento di progetti, ripartizione di risorse e più in generale con obiettivi di incentivazione e premialità, e le azioni valutative che sono invece finalizzate alla pura e semplice verifica di superamento di prefissati requisiti minimi di produttività scientifica individuale, richiesti per il conseguimento di idoneità o per la progressione salariale. Il CUN si è già occupato separatamente di questo secondo aspetto, la cui problematica riveste carattere di minore complessità, riducendosi nei casi più semplici alla formulazione di “criteri identificanti il carattere scientifico delle pubblicazioni” (secondo il dettato dell'art.3-ter comma 2 del D.L.10 novembre 2008 n. 180 convertito con L.9 gennaio 2009 n.1) e all'individuazione di livelli minimi (per lo più quantitativi) di produzione scientifica. La valutazione comparativa vera e propria comporta invece un'analisi più sofisticata e impegnativa, che dovrà necessariamente fare attento e distinto riferimento a ognuno dei parametri sopra elencati. Restando fin d'ora inteso che anche i parametri d) ed e) comportano distinzioni talvolta cruciali e richiedono analisi appropriate e proposte specifiche, sembra tuttavia opportuno organizzare in primo luogo la discussione sulla base di due soli assi di riferimento, quello relativo al parametro b), variabile dall'individuo ai grandi numeri (migliaia di docenti) di un ateneo, e quello relativo al parametro c), variabile dalla valutazione “calda” e puramente qualitativa (peer review) a quella “fredda” e prevalentemente quantitativa degli indicatori bibliometrici. Per stabilire quale relazione debba esistere tra la tipologia (e dimensione) dei soggetti valutati e il peso relativo che nella valutazione dovrebbero avere le due differenti metodologie dovremo preliminarmente esaminare in dettaglio l'origine e il significato dei criteri bibliometrici. Notiamo che ogni criterio quantitativo trae il proprio fondamento concettuale da considerazioni di tipo statistico, sia che si tratti di un riferimento a valori medi (come nel caso dell'Impact Factor o di qualunque altro tipo di ranking di riviste o di sedi di pubblicazione) sia che si tratti di valori assoluti individuali (come per il numero delle pubblicazioni e delle citazioni, l'indice h e simili) la cui interpretazione dipende comunque dalla comparazione con un grande numero di casi simili, ovvero dalla posizione occupata all'interno di una distribuzione. Ma non possiamo dimenticare che nelle distribuzioni caratterizzate da una probabilità che, in percentuale, decresce con il crescere del valore del parametro misurato (le cosiddette distribuzioni prive di scala) il significato della media è assai poco pregnante (non potendosi spesso definire la varianza), ed è stato più volte dimostrato, mediante il calcolo delle probabilità, che il rischio che un articolo pubblicato su una rivista di minor rango sia migliore di uno pubblicato su una rivista più “qualificata” non è in genere trascurabile. Sulla base di questa fondamentale premessa è facile argomentare che l'adozione di parametri
bibliometrici (in modo esclusivo o prevalente) ai fini di una valutazione individuale è di per sé un errore concettuale, anche indipendentemente dalla qualità (spesso opinabile) del parametro stesso. Viceversa, è altrettanto vero che, quando il numero dei soggetti, valutati in modo aggregato, è sufficientemente elevato, le stesse leggi della statistica ci assicurano un grado di attendibilità dei risultati dell'analisi quantitativa che cresce (anche se non linearmente) al crescere del numero dei valutati. La comparazione di differenti Dipartimenti relativi alla stessa disciplina, una volta opportunamente standardizzata per tener conto delle dimensioni dei Dipartimenti stessi, può essere quindi plausibilmente effettuata in modo prevalente sulla base di indicatori bibliometrici. Con opportune operazioni di normalizzazione tra discipline differenti, anch'esse possibili su base statistica, l'applicazione dei metodi bibliometrici di valutazione potrebbe costituire anche la base per ripartizioni di risorse almeno parzialmente ancorate al “merito” delle singole strutture all'interno di un Ateneo dato, e anche per la formulazione di un giudizio complessivo sui singoli Atenei. Ma la condizione sine qua non per l'attribuzione di un peso prevalente ai parametri bibliometrici è la presenza di un numero di soggetti sufficiente a giustificare l'ipotesi che le fluttuazioni di qualità non possano incidere significativamente sull'interpretazione del dato quantitativo. Restando dunque confermato che una valutazione bibliometrica delle strutture è in linea di principio possibile, e per certi aspetti anche auspicabile (soprattutto in relazione a costi, tempi e sistematicità della valutazione stessa), l’impegno valutativo sarebbe comunque sostanzialmente sterile qualora esso non fosse accompagnato da meccanismi capaci di tradurre le differenze di produttività scientifica così misurate in un effettivo aumento delle risorse per i più meritevoli, erogato a partire dal livello dipartimentale: meccanismi incentivanti/disincentivanti e premiali operanti soltanto al livello degli Atenei ben difficilmente otterrebbero effetti positivi sul comportamento delle singole aree e settori scientifici. Una strategia di incentivazione dipartimentale è anche precondizione per una concreta valorizzazione dei nuclei d'eccellenza esistenti anche in quelle realtà che, per ragioni storiche, territoriali e/o organizzative non fossero in grado di raggiungere nel loro complesso i livelli qualitativamente più elevati di produttività scientifica.
Criteri per la valutazione della ricerca
La valutazione dell’attività di ricerca individuale, a qualunque fine essa sia effettuata, deve comunque fare ricorso a un giudizio di merito sulla produzione scientifica, formulato da valutatori indipendenti e dotati della necessaria competenza disciplinare (peer review), che potranno servirsi anche dei parametri bibliometrici interpretandoli alla luce delle proprie esperienze e conoscenze (informed peer review). Il riferimento a parametri quantitativi da parte dei revisori, pur non potendo condizionare il giudizio qualitativo, è importante al fine di evitare che elementi di assoluta soggettività possano portare a valutazioni totalmente arbitrarie e a discrepanze gravi tra i giudizi espressi da soggetti differenti. L’uso degli indicatori bibliometrici per le valutazioni collettive e aggregate, pur con le restrizioni al dominio di applicazione specificate nella premessa generale, non può comunque ridursi a una mera misurazione quantitativa della produzione scientifica, che inevitabilmente indurrebbe a comportamenti opportunistici, privilegiando una produzione intensiva, scarsamente meditata e di conseguenza dotata di scarso impatto sulla comunità scientifica nazionale e internazionale. Per questo motivo si è andata sviluppando in alcune comunità di ricerca, soprattutto nelle aree scientifico-tecnologica e bio-medica, la ricerca di criteri e di parametri anch’essi di natura quantitativa, ma volti a misurare il grado di interesse con cui le pubblicazioni scientifiche vengono accolte. Malgrado le numerose e anche facili critiche, il conteggio del numero delle citazioni ricevute dagli articoli su rivista sembra generalmente costituire la base di partenza per la stima di
questi parametri e indicatori di “impatto scientifico”. A partire dal conteggio delle citazioni individuali si è poi evoluto il concetto di Impact Factor (IF) di una rivista, che in sostanza consiste nella valutazione del numero medio annuo delle citazioni per articolo ricevute dagli articoli pubblicati sulla rivista stessa. Come già spiegato in premessa, è assai improprio convertire l’IF di una rivista in un giudizio sul singolo articolo, e quindi sulla qualità della produzione scientifica individuale. Ma esistono anche fondati motivi, più volte discussi nella letteratura sull’argomento, per ritenere che un’applicazione meccanica dell’IF non produca un’adeguata parametrizzazione della qualità scientifica neanche nel caso di valutazioni collettive, in quanto l’ampiezza dell’intervallo di valori empirici dell’IF (da frazioni dell’unità a diverse decine) è del tutto sproporzionata all’effettiva differenza di qualità media degli articoli pubblicati, e risponde pesantemente a logiche di diffusione editoriale e alle importanti differenze esistenti nelle dimensioni e nelle modalità comunicative delle diverse aree e settori disciplinari, con discrepanze rilevanti anche tra sottogruppi appartenenti allo stesso settore. Nel campo delle scienze umane e sociali la situazione è resa ancor più complessa dall’assenza di basi di dati sufficientemente ampie e adeguate per il conteggio delle citazioni, e dal ruolo rilevante della produzione monografica, per la quale tale conteggio è intrinsecamente più difficile, se non addirittura impossibile, almeno con gli attuali strumenti di analisi. La definizione di criteri bibliometrici per la valutazione della ricerca richiede quindi un ripensamento complessivo, con l’auspicabile obiettivo di identificare criteri che da un lato siano per quanto possibile omogenei tra le differenti discipline, e dall’altro non penalizzino artificiosamente differenti tradizioni culturali e modalità di comunicazione scientifica. Un importante punto di partenza è fornito dal documento conclusivo prodotto dal gruppo di esperti investito del problema dal Consiglio Scientifico generale del CNR, e interessanti spunti sono offerti anche dal gruppo di lavoro costituitosi nell’ambito delle discipline umanistiche. Un’indicazione che appare emergere in misura abbastanza largamente condivisa è quella di operare una prima sommaria distinzione riconducibile quasi completamente alla verifica del soddisfacimento dei criteri di scientificità, così come specificati anche nelle proposte del CUN. Per quanto riguarda poi specificamente gli articoli su rivista, mentre è da escludere, per tutti i settori disciplinari, l’ipotesi di un ranking assoluto e puntuale di tutte le riviste (quale sarebbe quello offerto dall’IF), deve essere valutata con attenzione l’ipotesi di una classificazione sintetica (e sufficientemente elastica) che identifichi con procedure ampiamente condivise, all’interno dell’insieme delle riviste ritenute scientifiche, differenti livelli di qualificazione, garantendo comunque un'equilibrata ripartizione delle riviste tra i suddetti livelli. Il “punteggio” qualitativo da attribuire ai diversi livelli dovrebbe in ogni caso essere riferito a un intervallo di valori non troppo ampio. La determinazione di questo pool di riviste dovrebbe comunque risultare da un processo interattivo, coordinato dal C.U.N., nel quale le comunità scientifiche, anche tramite le proprie associazioni, giochino un ruolo determinante, e nel quale i criteri di riferimento, oltre quelli già in precedenza definiti in relazione alla scientificità, siano;
- l’impatto (nazionale e meglio ancora internazionale) della rivista (eventualmente misurato
dall’IF nei settori in cui questo criterio risulti appropriato),
- la presenza nelle principali banche dati internazionali (tra cui la banca dati I.S.I. per i settori
in cui la copertura da essa offerta risulti adeguata),
- l’autorevolezza della direzione scientifica,
- l’affidabilità della gestione organizzativa.
Per quanto riguarda le monografie non sembra oggi possibile immaginare criteri di classificazione “oggettiva” del loro impatto scientifico che si basino sulla loro collocazione editoriale e su un qualche tipo di ranking delle Case Editrici, una pratica del tutto sconosciuta in tutti i Paesi che hanno affrontato il problema della valutazione della produzione scientifica. Qualora si intenda, in sede valutativa, graduare in qualche misura il valore delle opere pubblicate in volume (inclusi gli Atti di convegni), al di là dei meri criteri di scientificità già contenuti nella proposta del C.U.N., sembra quindi ineludibile stabilire, anche nel caso di valutazione aggregata, una qualche forma di giudizio comparativo mediante peer reviewing, malgrado l’impegno straordinariamente più elevato insito in tale procedura. Se però proviamo a collocarci in una prospettiva temporale più ampia possiamo facilmente immaginare che nel medio periodo (ovvero nei prossimi 5-10 anni) l’evoluzione delle modalità di comunicazione, anche scientifica, associata alla diffusione e allo sviluppo di Internet e dell’editoria elettronica, e soprattutto delle moderne forme di interazione collettiva (social network e simili) identificate anche dalla locuzione Web 2.0, porterà a nuovi meccanismi valutativi, al momento ancora in embrione nel campo della ricerca, ma già efficaci in altri campi di attività. Ci riferiamo ad esempio all’idea del “controllo aperto” lanciata da Nature, e consistente nell’idea di “esporre” i manoscritti per un certo tempo su Internet, con la possibilità di essere commentati da tutti i lettori interessati, prima che il comitato editoriale decida di “pubblicarli”, anche sulla base dei giudizi che sono stati espressi. Possiamo anche aspettarci sostanziali raffinamenti di quella forma di controllo ex post che è data dalle citazioni, se si supererà l'attuale meccanismo centralizzato (fondato quasi esclusivamente su basi di dati proprietarie) in favore di un’analisi a tutto campo mediante motori di ricerca (sul modello, per quanto certamente ancora molto rozzo, proposto da Google Scholar), che permetterebbe facilmente di estendere questo tipo di valutazione anche alle monografie, soprattutto se le forme di pubblicazione elettronica, come prevedibile, andranno generalizzandosi. In quest’ottica è più che mai importante mantenere un atteggiamento aperto nei confronti dei meccanismi e delle regole per la valutazione, evitando irrigidimenti normativi e burocratici che rischierebbero di risultare superati in un breve arco di tempo, e quindi di frenare pericolosamente il pieno dispiegarsi delle potenzialità offerte alla ricerca realmente creativa dalle nuove forme della comunicazione scientifica.
 
Interrogativi sulle università telematiche PDF Stampa E-mail
Ha suscitato allarme in alcun i docenti la campagna pubblicitaria, lanciata a Bari, e verosimilmente anche altrove, dall'università telematica denominata E-Campus. E-Campus, istituita con un decreto ministeriale del gennaio 2006, ha sede operativa a Novedrate in Brianza e sedi decentrate a Roma, Messina e Bari. Altre 8 università telematiche private, risultano a tutt'oggi registrate. L'allarme nasce dal carattere della campagna pubblicitaria, imperniata su due principali argomenti: 1) il «superamento» del concetto di frequenza dei corsi da parte degli studenti; 2) l'efficacia in termini di produttività del metodo didattico e-learning (apprendimento elettronico) assistito. Quanto al primo punto, si tratta di un ribaltamento radicale del principio formativo su cui tutta la storia dell'università europea ha operato per secoli: vale a dire il principio della vita comunitaria di docenti e studenti, in ambienti adatti a stimolare lo scambio e il confronto delle conoscenze e delle idee. E vero che tale principio ha avuto una applicazione assai parziale a causa degli insufficienti investimenti, cosicché la frequenza effettiva nei corsi delle Università pubbliche rimane ad oggi del tutto inadeguata, ma il ricorso a modalità di assistenza didattica extra-murale, e soprattutto informatica e mediatica, lo annullerebbe del tutto. Quanto al secondo punto la didattica assistita a distanza, esso sembra rappresentare la carta più efficace a favore delle Università telematiche, in quanto in effetti il criterio di produttività della didattica è uno dei parametri decisivi imposti dai Ministeri competenti per la valutazione di tutti gli Atenei. Su tutto ciò nascono interrogativi di grande momento. Il primo riguarda le garanzie di formazione libera e culturalmente pluralistica dei laureati, che sono ridotti dall'approccio telematico alla condizione di pazienti in strutture ospedaliere d'avanguardia. Il secondo riguarda la mancanza assoluta di una piattaforma istituzionale democratica nel governo di questo tipo di Università. In piena contraddizione con la legge in discussione al Parlamento, non sono istituiti né Senato Accademico né Consigli di Facoltà, e non risultano neppure previste le strutture dipartimentali, che secondo la legge dovrebbero assicurare il nesso ricerca-didattica su cui si basa la riforma Gelmini. (M. Pirani, La Repubblica 29-03-2010)
 
Il rapporto su autonomia e governance dell’associazione delle università europee (EUA) PDF Stampa E-mail
L’Associazione delle Università europee (EUA) ha pubblicato un rapporto che analizza e mette a confronto le forme di governo e l’autonomia delle Università in 33 Paesi europei. Viene evidenziata la scarsa autonomia di cui ancora godono la maggior parte delle università europee, tuttora sotto l’egemonia dei governi centrali che controllano i sistemi di istruzione superiore o per lo meno ne stabiliscono le linee guida. Anche quando il controllo non è esercitato in forma diretta, vigono meccanismi che comunque limitano l’autonomia degli atenei, soprattutto per ciò che riguarda la gestione finanziaria. In tempi in cui il finanziamento pubblico degli atenei si va progressivamente affievolendo la mancanza di autonomia si traduce in minaccia alla sostenibilità delle università stesse, non pienamente libere di cercare fonti alternative di finanziamento. Prendendo in esame 30 diversi indicatori, lo studio individua quattro forme di autonomia (organizzativa, didattica, finanziaria e gestionale) e propone una serie di raccomandazioni su cui i governi sono chiamati a riflettere. In sintesi, dal rapporto emerge la necessità di una maggiore flessibilità del finanziamento pubblico come pure di una maggiore autonomia gestionale: alla tradizionale figura del rettore di stampo accademico si propone di sostituire quella più manageriale del direttore generale. Il rapporto costituisce il punto di partenza di un progetto biennale dell’EUA più ampio che mira a creare uno strumento per la misurazione dell’autonomia universitaria in Europa, al quale i singoli governi possano far riferimento per attuare una politica universitaria più efficace e più incisiva. I risultati del progetto saranno resi disponibili alla fine del 2011. (C. Tata, rivistauniversitas 07-12-2010)
 
Il Pagerank, la proposta di utilità incommensurabile nell’era dell’informazione PDF Stampa E-mail
Google, il più famoso dei motori di ricerca, per ordinare i risultati (le pagine web) ottenuti dalla ricerca di un utente, unisce due metodi: la rilevanza e l'importanza. Assegna a ogni pagina un punteggio di rilevanza che misura quanto la pagina è attinente rispetto ai termini inseriti dall'utente. Ma il vero punto di forza di Google, che gli ha consentito di surclassare gli altri motori di ricerca, è il metodo che assegna il giudizio di importanza alle pagine. L’algoritmo prende il nome di PageRank e assegna un giudizio di importanza a ogni pagina indipendentemente dalle interrogazioni degli utenti, ma unicamente in funzione della rete dei collegamenti ipertestuali tra pagine web, rete che forma il world wide web. La tesi adottata dal PageRank è la seguente: "una pagina è importante se viene citata da altre pagine importanti". Il metodo del PageRank è stato proposto da Sergey Brin e Larry Page nel 1998 durante il dottorato all'università di Stanford ed è oggi uno degli ingredienti principali del motore di ricerca Google. il vero contributo di Sergey Brin e Larry Page è stato quello di partire da una idea non completamente originale e trasformarla, per costruire qualcosa di incommensurabile utilità nell'era dell'informazione. Nel contesto del web, una citazione è un collegamento ipertestuale (link) da una pagina sorgente (la pagina che contiene il link) a una pagina destinatario (la pagina verso cui il link è diretto). La definizione, apparentemente circolare, è in realtà risolvibile usando strumenti matematici profondi, quali il teorema di Perron-Frobenius che garantisce l'esistenza e l'unicità di una soluzione, il metodo delle potenze che permette di calcolarla in modo iterativo. Più precisamente, il metodo del PageRank usa i seguenti tre fattori per determinare l'importanza di una pagina web: 1. il numero di link ricevuti dalla pagina; 2. l'importanza delle pagine sorgenti che contengono i link alla pagina; 3. il numero di link contenuti nelle pagine sorgenti.
Per capire l'importanza del metodo, applichiamolo a una ipotetica rete in cui i giornalisti sono tra loro collegati da giudizi di riconoscimento. Possiamo reinterpretare i tre fattori del PageRank esposti sopra nel seguente modo:
1. un giornalista è tanto più prestigioso quanto più elevato è il numero di riconoscimenti che ottiene da parte di colleghi;
2. riconoscimenti ricevuti da giornalisti importanti valgono più di giudizi ottenuti da giornalisti poco stimati;
3. infine, se un giornalista elargisce abbondanti riconoscimenti, i suoi giudizi sono inflazionati e valgono meno.
(M. Franceschetti, lavoce.info 30-03-2010)
 
« InizioPrec.123456Succ.Fine »

Pagina 4 di 6