I direttori di riviste e società autorevoli, come Nature, Science, Public Library of Science, National Academies of Science ed European Molecular Biology Organization, hanno pubblicato un articolo-manifesto per spiegare che l’ImpactFactor («fattore di impatto»), l’indice che a livello internazionale misura la qualità della ricerca, non ha alcun valore reale. L’inusuale presa di posizione è stata pubblicata il 5 luglio sul sito www.biorxiv.org e ha fatto parecchio rumore nel dibattito internazionale. Un Impact Factor superiore a 5 rappresenta un ottimo valore. Le riviste più scadenti annaspano poco sopra lo zero. Nature e Science, le reginette del club, hanno un Impact Factor superiore a 30. Questi numeri, però, sono medie degne dei polli di Trilussa. Secondo i dati presentati nell’articolo su biorxiv.org, gli Impact Factor sono determinati da una piccola percentuale di ricerche molto citate, mentre la maggior parte degli articoli, anche sulle riviste più autorevoli, ottiene pochissime citazioni. Basta allora un pugno di articoli e un po’ di marketing per far impennare l’indice. Dato che proviene dai primi della classe (i principali media scientifici), la presa di posizione rappresenta un vero ammutinamento. Il malcontento contro l’Impact Factor circola da tempo nei laboratori. Sempre più ricercatori si lamentano per l’abuso di questi parametri quantitativi, adottati non solo per giudicare le riviste ma anche quando si tratta di assegnare finanziamenti o favorire carriere. Secondo i critici, le citazioni contano ormai più dei contenuti. Le ricerche più popolari mettono in secondo piano quelle più coraggiose ma meno conosciute, e la stessa fine fanno i ricercatori. Riducendo tutto a un semplice numero, infine, si crea l’illusione che scienziati e ricerche in campi diversi possano essere misurati con un unico metro in maniera oggettiva. In Italia, anche in futuro, i commissari di valutazione per l’attribuzione dell’abilitazione scientifica nazionale, non dovranno nemmeno leggere gli articoli scientifici dei candidati, ma applicare solo metodi bibliometrici, a differenza di quanto avviene negli altri Paesi. «Come se in un concorso enologico i sommelier non assaggiassero il vino» ha scritto Alberto Baccini, economista all’Università di Siena. (Fonte: Il Manifesto 22-07-16)
|