Home 2012 20 Febbraio
20 Febbraio
RICERCA. INTERVISTA AL DIRETTORE GENERALE DI TELETHON. LA RICERCA È UNA COSA DA PROFESSIONISTI PDF Stampa E-mail

La maratona Telethon ha garantito anche quest'anno 30 milioni di euro (qualcosa in più è previsto a chiusura del bilancio a giugno) buona parte dei quali andranno a finanziare le ricerche di punta sulle malattie genetiche. Una buona conferma economica, dunque, con qualche preoccupazione dovuta alla crescita di quasi un terzo delle domande di grant, molte delle quali multicentriche. “E' un peccato perché dovremo selezionare di più, ma questo mostra anche quanta potenzialità di ricerca c'è anche in Italia” commenta Francesca Pasinelli, direttore generale di Telethon, intervistata da Scienzainrete sulle recenti querelle in fatto di bandi, ricerca e metodi di valutazione.
A proposito di ricerche multicentriche, il ministro profumo è stato criticato per aver puntato nei recenti bandi Prin proprio sul carattere multicentrico delle ricerche. Non si possono presentare, infatti, domande che non prevedano almeno 5 diverse unità di ricerca. Cosa ne pensa?
Condivido alcune critiche formulate all'indomani della pubblicazione del bando. Bizzarro assegnare, per esempio, quote massime di domande presentabili da parte delle università. Quanto alle ricerche multicentriche, è spesso vero che le idee più innovative nascono da ricerche di singoli ricercatori o gruppi. Poi però mi sono andata a leggere il documento tecnico che accompagna i bandi Prin e ho capito un po' meglio le intenzioni del ministro Profumo, il quale giustamente dice che fra poco (il 2014 è dietro l'angolo) parte il nuovo programma di ricerca europea Horizon 2020 (con un budget di 80 miliardi di euro). Anche i ricercatori italiani saranno dunque chiamati a partecipare a progetti multicentrici e dovranno imparare a farlo un po' meglio di adesso. Visto che – come ha osservato lo stesso ministro – al VII Programma quadro abbiamo contribuito con il 15% di risorse portandone a casa appena l'8,5%. Segno che possiamo migliorare. Ma ci vuole allenamento.
I critici, soprattutto di provenienza accademica, dicono che le università non sono attrezzate per gestire questi processi. O che questi seguono logiche poco meritocratiche.
Il fatto che le università italiane non si siano dotate di un sistema di screening interno della ricerca, e di un suo governo strategico, è gravissimo; significa rinunciare a una delle funzioni più nobili dell'università. E fa bene Profumo a chiedere che si comincino a dotare di strutture in grado di stabilire scale di priorità, di programmare la ricerca e di saper scegliere di conseguenza i ricercatori più adeguati a questi obiettivi. Questo bando assegna alle università responsabilità strategiche che devono saper far crescere al loro interno.
Tornando al metodo telethon, quali altri presupposti deve avere una buona valutazione?
La peer review anonima viene accompagnata da due study sections, riunioni plenarie in cui i revisori si confrontano e arrivano spesso anche a cambiare giudizio sui progetti. Fatti salvi i peggiori (circa il 30%) e i migliori (un altro 30%) dove spesso vi è unanimità di giudizio, le riunioni plenarie servono per raggiungere un consenso sull'altro 40% dei progetti su cui esistono valutazioni discrepanti. Guardarsi in faccia e sostenere le proprie valutazioni davanti a una trentina di colleghi (tutti con diritto di voto) modifica abbastanza le cose... in meglio direi. Alla fine di questo vero e proprio “processo” noi diamo ai ricercatori sia le iniziali valutazioni dei quattro revisori, sia in forma sintetica il risultato del dibattito in plenaria. Credo che sia istruttivo anche per loro.
E’ impensabile che meccanismi e competenze del genere possano essere adottati anche nel pubblico, nel ministero stesso?
Gestire bandi competitivi implica tecnicalità precise. Disturba che non si conoscano nemmeno questi meccanismi peraltro ben noti. Basterebbe fare riferimento a com’è gestita la valutazione in centri come gli NIH e l'ERC. Attualmente il ministero della ricerca non è attrezzato per questo compito. Ci vuole insomma un’organizzazione e una strategia, che è sicuramente possibile istituire, magari partendo dalle università, come sembra augurarsi il ministro Profumo. Certo è che, a monte, sembrano anche mancare degli Advisory Boards, dei tavoli permanenti in grado di stabilire priorità di ricerca a livello nazionale, invece di andare al traino dei bandi europei.
(Fonte: Intervista a F. Pasinelli, www.scienzainrete.it 02-02-2012)

 
RICERCA. I TEMPI LUNGHI DEL PROCESSO DI VALUTAZIONE PDF Stampa E-mail

E’ impossibile introdurre meccanismi di valutazione che accontentino tutti, ed è impensabile che, in un mondo dai saperi così differenziati e frammentati, un paradigma possa imporre agli altri i propri criteri di scientificità. In assenza di criteri massimi, si possono però introdurre criteri minimi: soglie sia quantitative sia qualitative al di sotto delle quali non si debba scendere.
Non esiste un sistema perfetto: ne esistono alcuni meno imperfetti degli altri. Quasi tutti ritengono sensato partire da una visione procedurale di qualità scientifica: è di qualità accettabile una pubblicazione che abbia superato una valutazione rigorosa da parte dei “pari”. La peer review ha dei difetti, ma è il metodo di selezione migliore a disposizione della comunità scientifica ed è di gran lunga quello più usato in tutto il mondo. Come e da chi debbano essere scelti i valutatori, e quali criteri adottino, è forzatamente soggetto a un tasso di arbitrarietà. Che si può ridurre rendendoli il meno possibile discrezionali, il meno possibile confusi con indirizzi politici, il più possibile trasparenti e pubblici.
Se si guarda alla passata esperienza della Valutazione Triennale della Ricerca (VTR) 2001-2003, si rileva che: ci sono voluti tre anni per espletare l’intera procedura; il primo Comitato di Indirizzo per la Valutazione della Ricerca – CIVR – ha consegnato la relazione finale nel 2006; il costo è stato di 3,5 milioni di euro; ha coinvolto 150 esperti e 6000 valutatori per valutare circa 18500 prodotti. Il VQR 2004-2010 si prospetta come un esercizio ancor più ambizioso: circa 210000 prodotti che dovranno essere gestiti dai 450 componenti del Gruppo di Esperti della Valutazione (GEV). Ciascun componente, quindi, avrà in media un “carico” di quasi 500 prodotti e, se si rispetterà l’obiettivo di valutarne tramite peer review almeno la metà (più uno), inviando a ciascun revisore un numero di prodotti compreso tra 10 e 20 (valori ragionevoli ma tutt’altro che piccoli), ci sarebbe bisogno di un “esercito” di valutatori oscillante fra le 10000 e le 20000 unità.
Questo è dunque un sistema che anche quando tutto fili liscio rischia di avere dei tempi molto lunghi: il nostro corpo docente è molto anziano. Si può ragionevolmente prevedere che quando la valutazione avrà conseguenze concrete, i valutati saranno già in gran parte in pensione.
(Fonte: www.argocatania.org 16-02-2012)

 
RICERCA. UNA METAVALUTAZIONE PDF Stampa E-mail

Prima di discutere sulle metodologie di valutazione, occorre decidere cosa valutare. Come ricorda Barucci, la valutazione della ricerca può avere due obiettivi principali: la valutazione delle strutture, con conseguenze sull’assegnazione delle risorse, e la valutazione dei singoli ricercatori, con conseguenze sul reclutamento e sulla carriera. In entrambi i casi, l’unità di osservazione sono i prodotti di ricerca individuali (nella maggior parte dei casi articoli o monografie), ma poiché il VQR 2004-2010 non intende valutare i singoli ricercatori, riteniamo che sarebbe opportuno adottare, dove possibile, come oggetto della valutazione la qualità e della sede editoriale di pubblicazione piuttosto che la pubblicazione in sé. Si tratterebbe di una ‘metavalutazione’, in altre parole di una valutazione delle sedi di pubblicazione piuttosto che dei prodotti in sé, dove l’indicazione di qualità attribuita alla rivista/collana editoriale sarebbe trasferita in modo automatico ai prodotti che vi sono contenuti.
L’adozione di un simile approccio sarebbe difficilmente difendibile qualora si trattasse di valutare la produzione scientifica dei singoli ricercatori. Infatti, pur ipotizzando di aver misurato esattamente la qualità media di una rivista, è evidente che vi sarà inevitabilmente una significativa variabilità nella qualità dei singoli articoli pubblicati. Tale variabilità rappresenta l’errore insito in qualsiasi metavalutazione, ma tale errore è destinato a ridursi all’aumentare del campione oggetto di valutazione. La metavalutazione, quindi, non rappresenta la soluzione più accurata, ma potrebbe essere una soluzione più efficiente quando si tratta di valutare enti e strutture di ricerca.
Se si guarda alla passata esperienza della Valutazione Triennale della Ricerca (VTR) 2001-2003, si rileva che: ci sono voluti tre anni per espletare l’intera procedura; il primo Comitato di Indirizzo per la Valutazione della Ricerca – CIVR – ha consegnato la relazione finale nel 2006; il costo è stato di 3,5 milioni di euro; ha coinvolto 150 esperti e 6000 valutatori per valutare 18500 prodotti. Il VQR 2004-2010 si prospetta come un esercizio ancor più ambizioso: circa 210000 prodotti che dovranno essere gestiti dai 450 componenti del Gruppo di Esperti della Valutazione (GEV). Ciascun componente, quindi, avrà in media un “carico” di quasi 500 prodotti e, se si rispetterà l’obiettivo di valutarne tramite peer review almeno la metà (più uno), inviando a ciascun revisore un numero di prodotti compreso tra 10 e 20 (valori ragionevoli ma tutt’altro che piccoli), ci sarebbe bisogno di un “esercito” di valutatori oscillante fra le 10000 e le 20000 unità.
La nostra tesi, quindi, è che una metavalutazione ridurrebbe significativamente i costi e i tempi della valutazione: nelle attuali condizioni di bilancio e con la necessità di abbreviare sensibilmente i tempi (il MIUR nella distribuzione della quota premiale del Fondo di Finanziamento Ordinario utilizza le informazioni della VTR che risalgono ormai a 10 anni fa!), oculatezza e tempestività ci sembrano virtù di non poco conto. E’ meglio ricevere in tempi ragionevolmente rapidi una fotografia abbastanza accurata della qualità attuale della ricerca svolta nelle diverse sedi, piuttosto che un’immagine dai contorni più definiti (ma assai più costosa) di quello che le strutture erano nel passato.
Peraltro, sulla base dei numeri sopra citati e della capacità di carico dei valutatori, è lecito attendersi che molti di loro saranno in qualche modo costretti a utilizzare tutte le informazioni in loro possesso per portare a termine il proprio compito in tempi ragionevoli. Poiché la sede della pubblicazione non è ‘blind’, è ragionevole aspettarsi che lo status della rivista (eccellente, mediocre, e così via) finisca per influenzare il giudizio dei valutatori sui prodotti in esame. Al termine di un lungo e costoso processo di peer review, quindi, potremmo scoprire che le valutazioni soggettive sono altamente correlate con il ranking bibliometrico delle sedi di pubblicazione, e questo renderebbe palese l’inefficienza della procedura di valutazione in corso. A scanso di equivoci, non riteniamo che la metavalutazione sia una panacea universalmente. Evidentemente, essa è difficilmente applicabile a quei settori dove i prodotti di ricerca sono rappresentati da monografie in lingua nazionale, edizioni critiche, risultati di scavi, lessici, cataloghi di mostre o curatele, ovvero tutti quei prodotti per cui è difficile ipotizzare una tassonomia chiusa (prima ancora che un ordinamento secondo criteri di qualità) delle sedi di pubblicazione.
(Fonte: A. Giunta, L. Salvatici, www.nelmerito.com 03-02-2012. Articolo integrale)

 
RICERCA. GLI STRUMENTI OPERATIVI DELLA VALUTAZIONE PDF Stampa E-mail

Impact factor, indice h e banche dati citazionali. Workshop ADEIMF sulla Valutazione della Ricerca.
Università degli studi di Milano 2 febbraio 2012 - Milano. Una presentazione di C. Lucarelli, Università Politecnica delle Marche.

 
RICERCA. LA VALUTAZIONE IN CAMPO GIURIDICO PDF Stampa E-mail

L’articolo di Stefania Carnevale “Indicatori bibliometrici e valutazione della ricerca in campo giuridico: qualche spunto per un dibattito da avviare” pubblicato su questo sito propone interessanti questioni che meritano di essere approfondite. Prendendo quindi spunto dall’articolo, mi soffermerò su cosa consiste la ricerca in campo giuridico e come può essere valutata, e com’è organizzata la comunità scientifica dei giuristi. Al termine dell’estesa trattazione di questi argomenti, l’autore conclude che sarebbe opportuno che il GEV dell’Area 12 “Scienze giuridiche” elabori una definizione operativa di ricerca scientifica in campo giuridico: il Manuale di Frascati non fornisce sufficienti specificazioni ed esempi al riguardo. Secondariamente, rimanendo nel contesto del Manuale di Frascati, il lavoro del giurista può essere catalogato da un lato come ricerca di base (disputa, speculazione) e dall’altro come progettazione (dunque come attività creativa che esula dalla ricerca). La definizione di R&S nel campo giuridico appare quanto mai necessaria visto che, da quanto risulta, il GEV dell’Area 12 è orientato a non fare ricorso allo strumento bibliometrico ma a procedere nella valutazione impiegando esclusivamente il giudizio dei pari.
La valutazione della ricerca nel campo giuridico richiede un’attenta caratterizzazione delle attività e degli output e deve tener conto del contesto sociale in cui tale ricerca si sviluppa. Nel caso dei giuristi la natura specifica del lavoro e il sistema organizzativo di tipo “verticale”, opposto a quello più “orizzontale” di altre comunità scientifiche, fanno sì che il documento scritto a firma singola, in primis la monografia, sia più significativo di altre espressioni della creatività proprio perché l’individuo non si “confonde” con un gruppo di ricerca.
(Fonte: G. Sirilli, http://www.roars.it 06-02-2012)

 
UNIVERSITÀ. FONDAZIONI PRIVATE RICONOSCIUTE DALLO STATO IN UK E ORGANISMI DI DIRITTO PUBBLICO IN ITALIA PDF Stampa E-mail

Le università del Regno Unito sono fondazioni private riconosciute dallo Stato, non organismi di diritto pubblico come le loro consorelle italiane. Ne consegue ovviamente che, in quel Paese, i docenti non sono funzionari pubblici e la loro carriera si svolge invece nel rispetto di un contratto di riferimento concordato tra le parti a livello nazionale (i rettori da un lato, i sindacati di settore dall'altro) che è poi declinato con flessibilità sede per sede e caso per caso: tanto flessibile, infatti, da permettere lo sviluppo di un sistema terziario articolato in oltre 300 istituzioni diversissime tra loro, alcune delle quali svettano nelle classifiche internazionali della ricerca, altre offrono una risposta concreta alla richiesta crescente di formazione continua, altre ancora combinano didattica e ricerca. Modello per molti aspetti attraente, si diceva, ma impossibile da esportare a pezzi illudendosi che esistano scorciatoie. L'Università fatta di dipendenti pubblici impone che sia la legge a regolare minuziosamente le forme di reclutamento e promozione, gli stipendi, gli scatti premiali, le afferenze e mille altri dettagli che nelle realtà "copernicane" sono assolutamente slegate dalla legislazione nazionale.
Davvero si potrebbe lasciare discrezionalità retributiva agli atenei in un sistema come il nostro, dove sono ancora sub iudice concorsi vecchi di vent'anni…o dove il primo dei due regolamenti sull'abilitazione scientifica, di carattere logistico e organizzativo, è approdato in Gazzetta undici mesi dopo il varo da parte del Governo, essenzialmente perché gli organi di controllo trovavano inaccettabile, correndo l'anno 2011, che le pubblicazioni dovessero essere trasmesse solo in formato elettronico? Dove contratti di pochi euro sono soggetti al visto preventivo della Corte dei Conti neppure regionale, ma nazionale? Prima o poi bisognerà decidere, come Paese, se pensiamo che un sistema universitario e della ricerca qualificato, multiforme e dinamico come il nostro, possa davvero fiorire e competere al meglio a livello internazionale restando ingessato in un sistema di regole che vanta origini nobili ma nel complesso datate.
(Fonte: A. Schiesaro, IlSole24Ore 17-02-2012)

 
Altri articoli...
« InizioPrec.12345678910Succ.Fine »

Pagina 5 di 15