Home 2011 5 Settembre
5 settembre
Confutazione analitica ed esaustiva di un'indagine sul declino della ricerca italiana PDF Stampa E-mail

Il 22 agosto 2011 è apparso su La Repubblica un articolo la cui fonte è un articolo scientifico in stampa sulla rivista internazionale Research Policy dal titolo inquietante “Is Italian Science Declining”?  Come dichiarato nell’abstract, “The paper analyses the Italian contribution to the world scientific production, its relative citation impact, its international collaborations and scientific productivity compared with the most productive EU countries over the period 1980–2009”.  Nell’articolo di Repubblica è riportata un’intervista a uno dei due autori, la ricercatrice Cinzia Daraio dell’Università di Bologna (il secondo autore, H.F. Moed, è olandese) che riassume i principali risultati dell’articolo. Premetto che buona parte dei fatti e dei punti di vista della Daraio sono veri e condivisibili. Ne cito alcuni (le nazioni di riferimento sono Regno Unito, Germania, Francia, Olanda, Svizzera, Spagna):

•Siamo ultimi per numero di ricercatori rispetto alla popolazione

•Siamo ultimi per investimenti pubblici nella ricerca

•I nostri privati non riescono a sostituirsi a Stato, Regioni e Università

•Nelle collaborazioni internazionali siamo penultimi

•Il contributo italiano alle pubblicazioni nel mondo è pari al 3,3%

•C’è una trentennale disattenzione della politica italiana verso la ricerca

Però il piatto forte dell’articolo di Repubblica è la seguente notizia shock: per la prima volta in trent’anni la produzione scientifica dell’Italia ha smesso di crescere e dà segnali di arretramento … come quota percentuale dell’intera produzione mondiale e in termini assoluti come numero di articoli scientifici pubblicati. … Sul piano quantitativo le pubblicazioni italiane hanno conosciuto un percorso di crescita dal 1980 (erano 9.721) al 2003 (sono diventate 39.728, quattro volte tanto). Nei cinque anni successivi si è proceduto tra depressioni e fiammate fino al 2008: 52.496 articoli italiani resi pubblici nel mondo, un record. L’anno dopo, il 2009 (ultimo dato conosciuto), il crollo: dodicimila pubblicazioni in meno, poco sopra quota 40 mila, bruciata la crescita di cinque stagioni.

Da circa un anno mi interesso di valutazione della produzione scientifica internazionale e non ho mai visto un calo del 20% in un anno della produzione scientifica di una nazione. Come osservato anche da Pietro Greco, una tale “catastrofe” è interpretata da molti come l’esito inevitabile di politiche miopi e fallimentari.  Tuttavia, il dato è così anomalo e in contraddizione con le mie informazioni precedenti che non ho potuto fare a meno di procedere a una verifica. La fonte dei dati forniti dalla Daraio è il Web of Science (WoS) della Thomson Reuters. Insieme al database di Scopus (Elsevier), il WoS è la fonte standard da cui sono ricavate le statistiche sulla produzione scientifica delle nazioni. Le due fonti non danno risultati identici e non c’è consenso condiviso su quale considerare più affidabile. Tuttavia, su dati aggregati esiste una forte correlazione tra i risultati forniti da Scopus e WoS. Per fare un esempio, la scelta del database non influenza la classifica delle nazioni scientificamente più produttive. L’accesso a entrambe le basi dati richiede un abbonamento. Per nostra fortuna, esiste un’agenzia di “ranking scientifico”, SCImago che elabora dei veri e propri “Country Rankings” basati sui dati di Scopus e li rende liberamente consultabili in rete.  Ho svolto la mia verifica in tre passi.

Primo passo: confrontiamo le fonti

Prima di tutto ho consultato la scheda sui dati della produzione scientifica italiana messi a disposizione da SCImago. Per comodità riporto il grafico dei documenti scientifici dal 1996 al 2010 e la parte della tabella (http://www.scimagojr.com/countrysearch.php?country=IT) contenente i numeri dei documenti, dei documenti citabili e della percentuale mondiale. Saltano all’occhio due cose:

1.Non c’è alcuna traccia di tracollo nel raffronto tra 2009 e 2008. Sia i documenti che i documenti citabili crescono dal 2008 al 2009, come pure la percentuale di documenti italiani sul totale mondiale che, anzi, raggiunge il massimo di tutti i tempi (3.41%). È interessante notare che sia i documenti che i documenti citabili sono sempre cresciuti dal 1998 in poi, con l’eccezione dei documenti citabili del 2010 (pari a 64.667) che sono inferiori a quelli del 2009 (pari a 65.543). Pur non essendo un tracollo, è forse un primo segno di frenata? Lasciamo per ora in sospeso la questione.

2.I numeri forniti da SCImago, la cui fonte è Scopus, sono decisamente maggiori di quelli della Daraio, che provengono da WoS. Per fare un esempio, nell’articolo di Repubblica si parla di 52.496 articoli nel 2008, mentre la tabella di SCimago riporta 62.393 documenti citabili. La discrepanza non è sorprendente in considerazione della diversa copertura dei due database, che però hanno una larga parte di dati in comune. Per quest’ultima ragione, un tracollo superiore al 20% in uno dei due database non può essere completamente invisibile nell’altro.

Il primo passo della verifica evidenzia un’anomalia apparentemente inspiegabile, dato che è per la prima volta che vedo due fonti come WoS e Scopus in stridente contraddizione tra di loro.

Secondo passo: l’origine dell’errore

Considerato l’esito del primo passo, ho voluto verificare il dato della produzione scientifica italiana relativo al 2009, che secondo l’articolo di Repubblica, evidenzierebbe un calo superiore al 20% rispetto all’anno precedente. Usufruendo dell’abbonamento del mio ateneo, mi sono collegato all’advanced search di WoS ed ho eseguito la seguente query  (CU=Italy) AND (PY=2009)

restringendo i risultati ai seguenti tipi di pubblicazione: Article, Proceedings paper, Review, come indicato nella Table 1 dell’articolo di Daraio e Moed. Nella query, ho selezionato tutti i database disponibili, ovvero: Science Citation Index Expanded, Social Sciences Citation Index, Arts & Humanities Citation Index. A sorpresa, il risultato è stato:  2009: 51091 Documenti.

Il numero trovato è molto maggiore di quel “poco sopra quota 40 mila” citato da Repubblica. Se il mio risultato è esatto, non si può certo parlare di crollo rispetto al 2008 (52.496 documenti secondo Repubblica), perché si rimane sopra i 50.000 documenti. Com’è possibile? Ho sbagliato a interrogare WoS? Oppure ha sbagliato la Daraio? A mio favore gioca il fatto che un dato “stabile” del 2009 rispetto al 2008 elimina la stridente contraddizione con le statistiche di Scopus che non mostrano nessun tracollo.

Ammettiamo per un momento che il numero fornito da Repubblica sia sbagliato e cerchiamo l’origine dell’errore. Si noti che i database sono continuamente aggiornati. Se si ripetono le stesse queries a distanza di qualche giorno, si ottengono risposte lievemente diverse. L’ipotesi più semplice è che la Daraio abbia interrogato WoS quando i dati del 2009 non erano ancora completamente assestati. In tal modo, avrebbe paragonato i dati più o meno definitivi degli anni precedenti con un risultato solo parziale del 2009. Questa congettura prende forza se si legge quanto scritto a pagina 5-30 del rapporto Science and Engineering Indicators 2010  del National Science Board relativamente all’uso dei dati WoS: “Previous editions reported data based on the year an article entered the database (tape year), not on the year it was published (publication year). NSF analysis has shown that, for the U.S. data, each new tape year file fails to capture from 10% to 11% of articles that will eventually be reported for the most current publication year; for some countries, the discrepancy is much larger. Here, data in the first section only (“S&E Article Output”) are reported by publication year through 2007, which contains virtually complete data for this and prior publication years”. Pertanto:

1.C’è un ritardo di registrazione per cui l’ultimo anno disponibile nel database non comprende almeno il 10% degli articoli che a regime saranno pubblicati in quell’anno

2.Il National Science Board nel suo report del 2010, non usa i dati 2008 e 2009 perché ritiene assestati solo i dati fino al 2007.

Alla luce di ciò, nel 2011 dovremmo ritenere affidabili i dati bibliometrici fino al 2008.  È verosimile che anche i dati di Scopus vadano maneggiati con la stessa prudenza e, per tale ragione, l’assai lieve calo dei documenti citabili del 2010 rispetto al 2009 potrebbe scomparire quando i dati del 2010 diverranno definitivi.

Questo secondo passo ci mostra che il dato 2009 citato da Repubblica è fortemente sospetto, probabilmente perché estratto da un database non ancora assestato. Lo scopo del terzo passo sarà validare la congettura sull’origine dell’errore.

Terzo passo: verifica finale

Per convalidare la congettura che la Daraio abbia usato un dato non assestato, è importante ricostruire la data in cui ha interrogato il database. In rete è disponibile una versione preliminare dell’articolo la quale è datata 14 dicembre 2010. Figure e tabelle (tranne una, relativa alle spese per ricerca e sviluppo) sono uguali a quelle dell’articolo in stampa su Research Policy. Inoltre, nella versione del dicembre 2010 è citata un’altra precedente versione, presentata in un convegno tenutosi nel luglio 2010. Sembra pertanto che i dati relativi al 2009 siano stati ottenuti tramite interrogazioni eseguite nel 2010, con alta probabilità di ottenere risultati parziali.

La verifica finale viene dal confronto con le statistiche delle altre nazioni. Infatti, l’uso di dati bibliometrici non ancora assestati dovrebbe introdurre un errore sistematico sul conteggio delle pubblicazioni 2009 di tutte le nazioni considerate.

Per controllare, basta esaminare la Fig. 9 dell’articolo (http://www.enid-europe.org/conference/poster%20pdf/Daraio_Moed_ResPol_15_Dec_2010_final.pdf).

Fonte: C. Daraio, H.F. Moed, "Is Italian Science declining?". Si noti che l'ultimo dato relativo al 2009 è nettamente inferiore a quello del 2008 per tutte le nazioni. Nel caso di CH (Svizzera) e UK (Regno Unito) ho aggiunto delle frecce rosse per evidenziare l'anomalia.

Si vede immediatamente che per tutte le nazioni il numero di pubblicazioni per 1000 abitanti mostra un tracollo del dato 2009 rispetto a quello del 2008. Dato che non ci sono stati improvvisi incrementi della popolazione, il 2009 sarebbe un vero e proprio annus horribilis per tutta la ricerca europea. Fortunatamente, la realtà è diversa. Basta consultare le seguenti schede statistiche di SCImago:

Tutte queste nazioni aumentano la loro produzione scientifica dal 2008 al 2009. Anche le queries da me effettuate su WoS mostrano lo stesso risultato. Infatti, ora che ci troviamo oltre la metà 2011, i dati del 2009 cominciano a essere un po’ più affidabili. L’Armageddon della scienza europea non è ancora arrivato.

Il terzo passo della mia analisi ha pertanto dimostrato che nella ricerca della Daraio c’è un errore nella raccolta dei dati che riguarda non solo le statistiche italiane, ma anche quelle delle altre nazioni europee considerate. Questo errore crea l’illusione di un crollo generalizzato della produzione scientifica internazionale, di cui non si trova traccia nei dati assestati.

Conclusione

La situazione della scienza (e dell’università) italiana è drammatica perché, a fronte di molti mali e di un cronico sottofinanziamento, è stata oggetto di una campagna denigratoria, a volte grottesca, che ha giustificato ulteriori tagli che la stanno strangolando con grave danno per il futuro del paese. Uno degli aspetti più gravi è stato la diffusione di dati e analisi fuorvianti, tesi a dimostrare che la ricerca italiana non occupa un posto di rilievo nel panorama internazionale. La realtà è diversa e l’articolo di Daraio e Moed ha il merito di ricordare alcune verità fondamentali già note a chi è correttamente informato. Diversa è la questione del “crollo” del 2009. Il presunto tracollo della produzione scientifica italiana è stato da molti interpretato come l’inizio dell’agonia di un malato stroncato dai maltrattamenti e dai salassi di medici incompetenti o peggio. Tuttavia, l’onestà intellettuale impone di dire che il tracollo denunciato nell’articolo di Repubblica è frutto di un’analisi errata. Denunciare gli errori della politica servendosi di notizie prive di fondamento aumenta la confusione e rischia di diventare un boomerang. Le dinamiche della produttività scientifica sono più lente e stiamo ancora sull’onda di una crescita dovuta ai tanti che hanno lavorato e lavorano con dedizione ed entusiasmo. Difficile dire se potrà durare a lungo. (Fonte: G. De Nicolao, universitas-wordpress.com 24-08-2011)

Un commento all’articolo di De Nicolao

Grazie per questo lavoro. Come ricercatore, anch’io ho accolto con perplessità i risultati dell’articolo della Daraio, pur condividendo le analisi sulle cause del declino della ricerca italiana, e avevo avuto come te il sospetto che gli autori non avessero valutato dati del tutto consolidati: mi mancavano tuttavia gli strumenti per l’analisi che tu hai svolto. Bravo! Quello che non mi convinceva in questo lavoro era la data in cui era stato osservato il turning point: troppo precoce il 2009, il sistema pubblicazioni (specchio del sistema ricerca) rispecchia infatti con un notevole ritardo le carenze nei finanziamenti e nel numero degli addetti. La mia impressione però è che questo declino sia imminente e che vedremo tale crollo forse nel 2012 o 2013. A dispetto delle denigrazioni di cui sono stati oggetto, forse anche a voler smentire l’offensiva vulgata che li vede fannulloni, la maggior parte dei ricercatori italiani ha reagito con un più intenso impegno lavorativo alla carenza di fondi, spesso decidendo di “raschiare il fondo della pentola” (ossia dar corpo a risultati accantonati nel passato per vari motivi, concludendo ricerche abbozzate ma non concluse) per mantenere un tasso minimo di produttività, ma ormai non restano più margini di compensazione. Vi sono settori e ambienti di ricerca in cui non è restata proprio più nessuna risorsa. E “nessuna” non è una metafora.
(Fonte: M. Marini Unibo 24-08-2011)
 
Le linee guida per i ricercatori TD PDF Stampa E-mail
Didattica, didattica integrativa, servizio agli studenti e attività di ricerca: sono questi i criteri di valutazione individuati dal decreto ministeriale 4 agosto 2011 n.344 «Criteri per la disciplina, da parte degli atenei, della valutazione dei ricercatori a tempo determinato, in possesso dell'abilitazione scientifica nazionale, ai fini della chiamata nel ruolo di professore associato» (vedi ‘Informazioni universitarie’ di agosto http://www.universitastrends.info/). Per valutare i ricercatori, gli atenei devono "misurare" il numero dei moduli/corsi tenuti dal ricercatore e la continuità della tenuta degli stessi; gli esiti della valutazione da parte degli studenti; la partecipazione alle commissioni istituite per gli esami di profitto; la quantità e la qualità dell'attività di tipo seminariale, di quella mirata alle esercitazioni e del tutoraggio degli studenti (compresa quella per le tesi di laurea triennale, specialistica e di dottorato).
(Fonte: Il Sole 24 Ore 12-08-2011)
 
Sanzioni inefficaci per le inadempienze didattiche PDF Stampa E-mail
È quasi inutile ricordare che la didattica e la ricerca scientifica nell'università sono due facce dello stesso diedro, in quanto è frequente constatare che un docente che non sappia fare ricerca, non sa fare una buona didattica (almeno nel senso sopra delineato) e viceversa.  Da ultimo, ma non per importanza, è noto che nelle università esiste una perdurante zona di "evasione didattica" da parte di un numero quantitativamente non trascurabile di docenti. Sorge allora spontanea la domanda: a che serve la valutazione della didattica se poi non è possibile giuridicamente prendere alcun provvedimento di "licenziamento" (o almeno di mobilità) a carico di tali docenti didatticamente inadempienti? Da questo punto di vista la "riforma Gelmini" ha perso un'occasione storica perché, mentre introduce correttamente norme contro il perpetuarsi dei cosiddetti "ricercatori a vita", non prevede nessuna seria sanzione a carico dei professori "a vita" inadempienti, disperdendo così somme di denaro ulteriormente destinabili alla ricerca. È, infatti, chiaro che il blocco degli scatti stipendiali non può di per sé costituire una sanzione efficace per indurre alla didattica i docenti inadempienti.
(Fonte: G. Scalabrino, Il Sole 24 Ore 29-08-2011)
 
Garanzie di qualità per le attività di formazione PDF Stampa E-mail

Ovunque nel mondo è scontato, anche se tra molte critiche sul metodo, che si compia la valutazione della ricerca. Che non è innocua. Essa espone in pubblico i prodotti del singolo e del gruppo cui appartiene, ne sottolinea la forza ma anche le debolezze, ha un impatto forte sulla loro carriera, sulla loro fortuna. E tuttavia è accettata, insieme alle sue conseguenze di classificazione, paragone, competizione. La didattica, o meglio il progetto di un corso di studio e il suo reale funzionamento, sono soggetti alle stesse regole valide per la ricerca: obiettivi chiari, metodi appropriati, riflessione critica, attenzione alla qualità. E tuttavia in Italia la valutazione didattica dei singoli docenti è tollerata, ma non ha un serio impatto, mentre la valutazione dei corsi di studio è in alto mare. Varrebbe la pena di discutere i motivi di questa differenza di trattamento tra didattica e ricerca. Sottrarsi alla didattica non è un tabù se regolato dai noti dispositivi istituzionali del congedo, per definizione limitato nel tempo e concesso al docente per il potenziamento del proprio capitale scientifico e didattico. Ben diverso è coltivare l'idea del «teaching buy out», ovvero di «comprarsi» un’esenzione dalla didattica quando si disponga di cospicui fondi di ricerca con cui retribuire un docente sostituto. Potenzialmente, un messaggio devastante: proprio i più «dotati» tra i docenti/ricercatori (i docenti universitari hanno questa simmetrica funzione, quindi chiamiamoli così), acquisterebbero prestigio sottraendosi alla funzione docente, quasi si trattasse di un’incombenza minore o fastidiosa. Quando, al contrario, essere chiamati a formare la maggior parte delle professionalità più elevate del Paese è privilegio da custodire molto gelosamente. Purtroppo anche i messaggi che arrivano dal centro si prestano a fraintendimenti: tra gli indicatori di prestazione che valgono per i finanziamenti ministeriali all'università quelli relativi alla produzione scientifica pesano oggi il doppio di quelli della didattica. Da una parte è una sottolineatura della funzione che l'università ha, sul fronte della ricerca, per lo sviluppo del Paese. D'altra parte, però, può essere anche il segnale di una scarsa fiducia nei metodi per tenere sotto controllo e valutare processi di formazione. Segnale poco opportuno, visto che l'Europa si è data dal 2005 regole comuni per la «Garanzia di Qualità» dei corsi di studio e per la loro valutazione. Alcuni atenei italiani già stanno sperimentando con successo modelli per l'applicazione efficace di queste regole, ma l'università è una nave grande e le virate sono lunghe.

È venuto il momento di ruotare il timone. Prima di tutto eliminando i malintesi: i questionari studenti - che sono la prima sacrosanta informazione sull’esperienza dello studente, cioè su com’è accolto un corso di studio da chi vi investe molto della propria vita - non sono la valutazione della didattica, ma ne fanno parte insieme a tante altre cose. In secondo luogo, stabilendo una volta per tutte che non ha senso mettere in piedi qualsiasi forma di valutazione o accreditamento esterno se prima non si applica in ateneo, cioè in casa propria, la «Garanzia di Qualità»: lo strumento tecnico con cui si tengono sotto controllo i fattori che determinano la qualità di un corso di studio, li si traduce in codici di comportamento per chi opera e in indicatori per chi valuta.

I modelli che si stanno sperimentando in Italia sono articolati in cinque aree di garanzia: identificare la domanda di formazione proveniente dall'esterno, dare una risposta alla domanda di formazione stabilendo risultati di apprendimento coerenti con la domanda, mettere a disposizione degli studenti l'ambiente di apprendimento più adatto per raggiungere i risultati previsti, verificare che i risultati attesi siano effettivamente conseguiti, disporre di un’organizzazione credibile e di sistemi adeguati di osservazione e di raccolta dati. Forse la chiave di lettura della poca fiducia, quando non dell'ostilità, verso la valutazione dei corsi di studio si nasconde nel fatto che questa lascia tracce non sempre credibili, affidabili e utili. La «Garanzia di Qualità» oggi disponibile riesce invece a produrre queste tracce, e le produce in modo che esse abbiano un impatto reale sui comportamenti dei docenti: che non si limitino quindi ad essere pure collezioni di dati a condimento di rapporti di valutazione fatti per pochi specialisti e per inesplorati archivi. (Fonte: M. M. Gola, Corsera 12-08-2011)
 
Validità dei test d’accesso alle facoltà a numero programmato PDF Stampa E-mail
In Italia l'esperienza ha dimostrato (relazione Cnsvu 2011 e altre autorevoli fonti) che esiste una forte correlazione fra il punteggio conseguito nel test e i risultati ottenuti nel corso degli studi universitari. Inoltre, nella facoltà di Medicina e Chirurgia con accesso a test multiplo valgono quattro importanti aspetti: 1) le iscrizioni agli anni successivi avvengono con regolarità a dimostrazione che la selezione funziona al contrario delle facoltà dove l'accesso è effettuato secondo altri parametri; 2) gli studenti che ottengono un punteggio elevato nella prova a test si laureano prima degli altri; 3) gli studenti che ottengono un punteggio elevato nella prova di ammissione superano gli esami con votazioni più alte e si laureano con una votazione mediamente più elevata rispetto ai candidati posizionatisi nelle fasce inferiori della graduatoria; 4) il numero di esami superati in corso è tanto più elevato quanto maggiore è il punteggio conseguito nella prova a test. Pertanto non c'è da inventarsi niente di nuovo, semmai migliorare la prova a quiz, attraverso un database di domande a risposta multipla molto esteso, aggiornabile ogni due anni, da cui poi selezionare a sorteggio le domande di concorso che dovranno essere le stesse per tutti gli atenei pubblici e privati, con prova di accesso unica (stesso giorno per atenei statali e privati) e graduatoria unica nazionale. In questo modo gli studenti potranno studiare ed esercitarsi sulla prova. Si potrebbe, infine eventualmente integrare il punteggio della prova a test con una percentuale basata sul curriculum scolastico e non sul voto dell'esame di Stato. Le prove a test non discriminano gli studenti in base a fattori legati al reddito familiare o all'ambiente sociale di provenienza e garantiscono criteri di selezione meritocratici, favorendo il raggiungimento di un sistema competitivo. Il successo delle prove di accesso a test multipli analogamente al modello Medicina è confermato anche dal fatto che per il prossimo anno accademico, 839 corsi di laurea su 4.389 (il 19%) dei corsi attivi negli atenei italiani, adotteranno una procedura di selezione a test.
(Fonte: G. Novelli, Il Messaggero 10-08-2011)
 
Altri articoli...
« InizioPrec.12345678910Succ.Fine »

Pagina 3 di 10