UK. COMPORTAMENTI SCORRETTI LEGATI ALL'INTELLIGENZA ARTIFICIALE NELLE UNIVERSITÀ DEL GRUPPO RUSSELL |
|
|
|
I dati rivelano un drammatico aumento dei comportamenti scorretti legati all'intelligenza artificiale nelle università del Gruppo Russell, con ulteriori interrogativi sollevati da una “registrazione lacunosa” del settore e da un approccio incoerente al rilevamento. Il fatto che ci sia stato un forte aumento di comportamenti scorretti degli studenti legati all'intelligenza artificiale nelle università non deve sorprendere. Solo due anni fa, le principali preoccupazioni per l'integrità accademica dei laureandi erano le fabbriche di saggi e il plagio peer-to-peer, mentre l'uso dell'intelligenza artificiale era limitato solo ai più esperti di tecnologia. ChatGPT ha cambiato tutto questo, cogliendo di sorpresa le università e gran parte del resto del mondo. I nuovi dati raccolti dal mio collega Jack Grove tramite richieste di Freedom of Information Act rivelano la portata di questa nuova forma di imbroglio tra le istituzioni del Gruppo Russell, ma anche le grandi discrepanze di approccio nel settore. Alcuni, ad esempio, continuano a dichiarare di non aver riscontrato casi di cattiva condotta legati all'IA, forse per una questione di tenuta dei registri piuttosto che per la santità dei loro corpi studenteschi. Altre ammettono di non essere a conoscenza della situazione a livello centrale, perché i casi vengono gestiti a livello di dipartimento. Le università continuano a dover affrontare il problema in gran parte da sole. È giunto il momento che i governi, le autorità di regolamentazione e le aziende tecnologiche svolgano un ruolo maggiore? F. Jack Grove, THE 01.11.24.
|