Commento all’articolo precedente |
|
|
|
Il punto ovviamente non è l'efficienza dei metodi bibliometrici (chi può metterla in discussione!), ma l'efficacia: è quella short list un'attendibile misura del valore scientifico di un ricercatore? Laddove c'è un mainstream ragionevolmente condiviso la risposta è: sì, anche se si discute in tutto il mondo sugli effetti perversi della peer review (diretta e indiretta, com’è la bibliometria) e dovremmo pur cominciare anche noi, e anche se una dose minima di dissenso nella comunità scientifica andrebbe garantita statutariamente (dopotutto, lo scetticismo metodico distingue la scienza dei vari dogmatismi da cui si è dovuta faticosamente affrancare). Laddove si discute sui fondamenti stessi della disciplina la risposta è: no! Perché, per definizione, dai fondamenti discendono le ricerche che s’intraprendono (fields, themata, authorship ecc.), i metodi che si applicano (quantitativi, qualitativi, storico-documentari ecc.), i risultati che si conseguono, i tipi di pubblicazione ai quali sono destinati (libri o articoli, a singolo nome o collettivi, disciplinari/interdisciplinari ecc.) e di conseguenza quantità di pubblicazioni e di citazioni (almeno sul breve e medio periodo: e sul lungo, notoriamente, siam tutti morti…). Né io mi sentirei di penalizzare coloro di cui non condivido l’approccio in un concorso universitario, reputandolo, fino a prova contraria, una ricchezza. Non è che i numeri non contano, ma che vanno contati per bene. E non sempre è facile. Alle volte è persino molto difficile: e questa è la palestra della scienza sociale. E' comunque compito proprio, direi, di un lavoro scientifico quello di distinguere quel che va distinto e di una governance responsabile quello di valutare con lungimiranza il motore della knowledge society. Cautele responsabili senza repulsioni e senza censure. (A. Cerroni 30-07-2011)
|