In base alle regole riviste, tutti i casi di cattiva condotta accademica devono essere segnalati all’OSCCA, compresi quelli risolti all’interno dei dipartimentiLouis Ashworth/Graph+SAS/Wikimedia Commons https://creativecommons.org/licenses/by-sa/4.0/deed.en
Cambridge ha registrato i suoi primi casi di cattiva condotta accademica che coinvolge l’intelligenza artificiale (AI) nel 2024, rivelano le richieste di libertà di informazione.
Tra il 25 novembre 2023 e il 24 novembre 2024, gli esaminatori hanno fatto riferimento a 49 casi di imbrogli di esame all’Ufficio per la condotta degli studenti, i reclami e i ricorsi (OSCCA), l’organo disciplinare centrale dell’università. Di questi, tre erano collegati all’IA – la prima volta che tali casi sono stati formalmente registrati.
I dati mostrano anche un aumento dei casi complessivi di cattiva condotta accademica negli ultimi anni. Tra il 2019 e il 2023, il numero di casi confermati variava da quattro a 19 all’anno. Tuttavia, la figura è passata a 33 nel 2024, a seguito delle modifiche alla procedura disciplinare degli studenti nell’ottobre 2023.
In base alle regole riviste, tutti i casi di cattiva condotta accademica devono essere segnalati all’OSCCA, compresi quelli risolti all’interno dei dipartimenti. In precedenza, solo i casi che richiedono un’indagine formale erano stati segnalati centralmente, contribuendo all’aumento degli incidenti registrati.
Questi nuovi casi di imbrogli legati all’intelligenza artificiale nelle valutazioni arrivano tra crescenti preoccupazioni sull’uso di modelli di intelligenza artificiale generativi come GHATGPT nell’istruzione. L’anno scorso, la facoltà di scienze umane, sociali e politiche (HSPS) ha annunciato gli esami scritti a mano sostituire le valutazioni online per gli studenti di sociologia e antropologia del primo e secondo anno, citando un aumento dell’uso di intelligenza artificiale negli esami.
Il dott. Andrew Sanchez, presidente del comitato di gestione HSPS Tripos, ha commentato: “Questa decisione risponde alle preoccupazioni sull’uso dell’IA negli esami online e segue la discussione all’interno del comitato di gestione della facoltà e dei tripos HSPS l’ultimo anno accademico. Durante questo processo, è stato richiesto il feedback dei membri degli studenti del Comitato di gestione del Tripos e quei membri sono stati informati su eventuali modifiche. “
Un 2023 Varsity Il sondaggio ha rilevato che quasi la metà degli studenti di Cambridge aveva usato AI per il lavoro universitario, con quasi un quinto che lo usava per compiti valutati come i corsi. L’Università proibisce l’uso dell’IA nel lavoro valutato, classificandolo come cattiva condotta accademica, ma la guida per il lavoro non valutato varia in base al dipartimento.
Nel marzo 2024, la facoltà di HSPS emise una lettera aperta che esorta gli studenti a non usare l’intelligenza artificiale generativa, avvertendo che potrebbe “derubarti dell’opportunità di imparare”. Hanno sottolineato che presentare il testo generato come proprio costituirebbe una cattiva condotta accademica.
Nell’ambito degli studenti inglesi fu detto nel 2023 che l’IA poteva aiutare con compiti come “disegnare una bibliografia” o “fasi iniziali del processo di ricerca”, a condizione che fosse svolto sotto la guida del supervisore. Alcuni studenti di ingegneria del primo anno sono stati inoltre consigliati di poter utilizzare CHATGPT per strutturare i corsi, purché ne hanno rivelato l’uso e includessero le istruzioni utilizzate.
Nel febbraio 2023, prima che la politica dell’Università sull’intelligenza artificiale fosse chiarita, ha detto Bhaskar Vira, il Cancelliere pro-Vice-Cancelliere per l’istruzione di Cambridge, Bhaskar Vira Varsity Che un divieto di chatgpt non fosse “sensato” perché “dobbiamo riconoscere che questo è un nuovo strumento disponibile”.
Nello stesso anno, il Dr. Vaughan Connolly e il Dr. Steve Watson della Facoltà di Education hanno ospitato una domanda e una domanda intitolata “CHATGPT (We Dey To Talk to Talk)” sul sito web di Cambridge. Watson ha avvertito che mentre “le università e le scuole devono proteggere l’integrità accademica”, i rischi di sovra-regolamentazione rendono le istituzioni “non rispondenti al cambiamento” poiché l’IA è ampiamente adottata.
Un portavoce dell’università ha dichiarato: “L’università ha linee guida rigorose sulla condotta degli studenti e l’integrità accademica. Questi sottolineano che gli studenti devono essere gli autori del proprio lavoro.
“Il contenuto prodotto da piattaforme AI non rappresenta il lavoro originale dello studente, quindi sarebbero considerati una forma di cattiva condotta accademica da trattare ai sensi delle procedure disciplinari dell’università”, hanno aggiunto.
Vuoi condividere le tue opinioni su questo articolo? Inviaci una lettera a letters@varsity.co.uk o utilizzando questo modulo.