Gli studenti possono utilizzare l’intelligenza artificiale, afferma la nuova guida universitaria

//

Alexandre Rossi

La nuova guida riflette in gran parte la precedente posizione dell’università sull’intelligenza artificiale, in seguito al vicerettore dell’istruzione che aveva detto a Varsity nel 2023 che ChatGPT non dovrebbe essere vietatoRyan Teh per Varsity

L’Università di Cambridge ha pubblicato nuove linee guida per studenti e personale sull’uso dell’intelligenza artificiale generativa (GenAI), in cui si afferma che gli studenti possono utilizzare l’intelligenza artificiale nel lavoro personale.

Pur sottolineando che l’intelligenza artificiale può “fornire risposte utili”, la guida delinea una serie di principi generali per l’uso dell’intelligenza artificiale generativa per mitigare al meglio le “legittime preoccupazioni etiche” associate al suo utilizzo.

Inoltre, si riconosce che l’ampia varietà di studi nell’Università fa sì che “l’uso appropriato sia meglio definito localmente per Dipartimento, Facoltà o College a seconda del contesto”.

La nuova guida afferma: “Agli studenti è consentito fare un uso appropriato degli strumenti GenAI per supportare il loro studio personale, la ricerca e il lavoro formativo”. Tuttavia, si consiglia agli studenti di riconoscere l’uso dell’intelligenza artificiale quando ha contribuito a una parte significativa e invariata del lavoro.

Gli individui dovrebbero “verificare sempre con un membro del personale” o “verificare le linee guida sull’uso specifico con le aree pertinenti dell’Università”. Per il personale, si legge in modo simile, “Il personale è autorizzato a fare un uso appropriato degli strumenti GenAI per supportare il proprio lavoro”.

La nuova guida riflette in gran parte la precedente posizione dell’università sull’intelligenza artificiale, secondo quanto detto dal vicerettore per l’istruzione Università nel 2023 che ChatGPT non dovrebbe essere bandito, poiché “dobbiamo riconoscere che si tratta di un nuovo strumento disponibile”.

Nei principi di utilizzo delineati, l’Università sottolinea che i dati e le informazioni utilizzati da GenAI non sono sufficientemente referenziati, il che può quindi portare sia a “inesattezze” che a “difficoltà nel citare prove valide”.

L’intelligenza artificiale può utilizzare dati contenenti “pregiudizi sociali e stereotipi” e anche che esistono potenziali pericoli per la privacy nell’utilizzo dell’intelligenza artificiale in quanto gli strumenti possono utilizzare o archiviare informazioni personali degli individui. Si consiglia alle persone di “non condividere nulla di personale o sensibile”.

Le linee guida hanno inoltre sottolineato il “grave impatto ambientale” di GenAI, rilevando il suo intenso utilizzo di energia e acqua, e di conseguenza hanno consigliato agli studenti di prestare attenzione all’uso prolungato dello strumento. Gli studenti dovrebbero utilizzare lo strumento solo “come e quando necessario ed essere il più efficienti possibile per mitigare questi effetti”.

Una serie di linee guida più dettagliate ricorda agli studenti la dichiarazione delle linee guida sul plagio e la cattiva condotta accademica pubblicate nel 2023, secondo cui “l’utilizzo di qualsiasi contenuto non riconosciuto generato dall’intelligenza artificiale all’interno di una valutazione sommativa come se fosse il loro lavoro costituisce cattiva condotta accademica”, a meno che il brief di valutazione non indichi specificamente diversamente.

Nel frattempo, gli esaminatori possono utilizzare l’intelligenza artificiale “nell’elaborazione e formulazione dei propri commenti e feedback”, ad esempio per consolidare i propri appunti e riformulare i commenti. Tuttavia, non sono in alcun caso autorizzati a inviare il lavoro degli studenti a GenAI e non devono utilizzare gli strumenti per analizzare il lavoro degli studenti o fornire feedback.

In risposta alle nuove linee guida, ha detto la Cambridge Climate Society Università“Siamo preoccupati che l’Università si stia impegnando in un tentativo simile di trasferire l’onere dell’azione ambientale sugli studenti e sul personale, eliminando al contempo il proprio ruolo nello sviluppo e nel finanziamento di tecnologie dannose per l’ambiente e la società”.

Hanno aggiunto: “Apprezziamo che l’amministrazione universitaria sia consapevole dei gravi impatti ambientali e sociali che un ampio utilizzo dell’intelligenza artificiale può generare e sosteniamo ampiamente l’inclusione di consigli volti a scoraggiare pratiche di utilizzo inefficienti. Detto questo, l’attuale quadro perpetua la narrativa secondo cui la sostenibilità è un onere individuale, una narrativa utilizzata dalle major del carbonio per spostare le proprie responsabilità”.

All’inizio di quest’anno, a Università Il sondaggio ha rilevato che oltre il 60% degli studenti aveva utilizzato ChatGPT nel proprio lavoro, con un aumento del 14% rispetto al 2023.

Ciò fa seguito a una categoria “AI” per cattiva condotta accademica introdotta per la prima volta nel 2023/24, con gli esaminatori che hanno segnalato tre casi di cattiva condotta accademica legata all’IA.

Viene anche dopo che l’Università ha lanciato “cliniche di intelligenza artificiale” all’inizio di quest’anno, per assistere accademici e studenti nell’uso efficace dell’intelligenza artificiale per la loro ricerca, sostenendo che gli strumenti possono aiutare a consentire una “nuova ondata di scoperte scientifiche”.