ChatGPT

De hadde aldri sett en student bruke en så avansert metode. Hun ble utestengt for fusk

Fem studenter som var mistenkt for å jukse med kunstig intelligens (KI) på eksamen, ble i september felt for fusk.

Telefon der det står skrevet 'Hva er personsentrert sykepleie'?
I en av fuskesakene stilte faglærer dette spørsmålet til ChatGPT, og ba om referanse. Da referansen var den samme som studenten hadde oppgitt, ble mistanken om fusk styrket.
Publisert

Sensorene på et masteremne ved Universitetet i Sørøst-Norge (USN) fikk en uvanlig eksamensbesvarelse på bordet i vår. De mente den lå på et nivå langt over hva som kunne forventes i et introduksjonsemne i metode. Studenten hadde valgt en metode for såkalt paraply-gjennomgang av metaanalyser som var så avansert at den bare i sjeldne tilfeller brukes av stipendiater og erfarne forskere, ifølge sensorene.

Fakta

Dette er ChatGPT

  • ChatGPT er en avansert kunstig intelligensmodell utviklet av OpenAI.
  • Den er designet for å forstå og generere menneskelig lignende tekst basert på den konteksten.
  • ChatGPT er en forkortelse for Generative Pretrained Transformer. Det er en type maskinlæringsteknikk som brukes til å generere tekst basert på en forhåndstrent modell.
  • Modellen bruker dyp læringsteknikker for å produsere sammenhengende og naturlig språk i ulike applikasjoner, som tekstgenerering, samtale og svar, oversettelse og mer.
  • Når du stiller ChatGPT et spørsmål eller gir den en oppgave å utføre, vil den bruke det den har lært fra treningen for å lage en tekst som svarer på spørsmålet eller fullfører oppgaven på en meningsfull måte.
  • Kilde: OpenAI

En slik gjennomgang gir oversikt over andre studier som er gjort om et bestemt emne. Sensorene skrev:

«Som erfarne sensorer har vi aldri tidligere sett studenter som har forsøkt eller fått til å bruke en så avansert metode på et introduksjonsemne».

«Svært høyt akademisk nivå»

De mente videre at språket var på «et svært høyt akademisk nivå». Men de stusset over at studentens språk varierte, og skrev at «det er vanskelig å se for seg at samme person kan ha så ulik forståelse og nivå på språket.»

Dette gjorde at de mistenkte at studenten hadde brukt en form for kunstig intelligens (KI), muligens ChatGPT, for å kunne gi en avansert og presis forklaring på metoden i paraply-gjennomgangen.

Det var manglende kildehenvisninger i besvarelsen, og da studenten skulle forklare seg, la hun fram en kildeliste som sensorene ikke hadde sett tidligere.

Studenten nektet 

Studenten nektet for å ha brukt ChatGPT. Hun sa hun hadde funnet 26 artikler som hun oversatte til norsk, og forsøkte å referere til fem av disse. Hun gjorde rede for to metoder hun hadde brukt. 

Men sensorene mente metodene var vanskelige å kombinere. De påpekte også at studenten ikke hadde gjort rede for hvordan de var brukt sammen, og hvilke utfordringer det ga.

Da nemnda for studentsaker behandlet saken, kom den til denne konklusjonen:

«Nemnda legger til grunn at det objektivt sett foreligger fusk i denne saken, og viser til sensors uttalelse og redegjørelse for uregelmessigheter med hensyn til kildehenvisninger, språk, nivå̊ og metode som er benyttet i studentens besvarelse.»

«Store deler av besvarelsen anses å være utarbeidet av andre enn studenten selv», mente nemnda.

Reaksjonen ble annullering av besvarelsen og utestengelse i to semestre.

Behandlet fem saker — fastslo juks i alle 

ChatGPT og KI har vært på alles lepper den siste tiden. I vår kom det stadig historier om folk som testet ut den nye samtaleroboten ChatGPT i studiesammenheng, og som lurte sensor. 

Men som Khrono skrev i august, behandler universitetene og høgskolen svært få saker der de mistenker studenter for å fuske ved hjelp av KI. Da hadde bare tre studenter blitt felt for dette.

I tillegg hadde nemndene for studentsaker en håndfull saker på timeplanen. 

I september behandlet USN fire og NTNU én sak der studenter var mistenkt for å jukse ved hjelp av KI. 

I alle sakene konkluderte universitetene med juks. 

Studentene har mulighet til å klage til nasjonale Felles klagenemnd. Khrono har ikke oversikt over om noen har klaget eller planlegger å klage på vedtakene. 

Det er riktignok vanskelig å bevise at fusket består i bruke kunstig intelligens hvis studenten ikke innrømmer dette selv. I flere av sakene fastslår ikke nemndene eksplisitt at studenten brukte KI-verktøy, men nøyer seg med å si at teksten ikke er studentens egen eller at det er feil med kilder. 

Sak 2: — Uredelig og villedende kildebruk

I den andre saken ved USN reagerte sensorer nettopp på kildebruken i en bacheloroppgave.

«Problemet ser ikke umiddelbart ut til å være direkte former for plagiat, men svært uredelig — og gjennomgående villedende kildebruk i tekst», skrev sensor om oppgaven som ble levert i vår.

Selve teksten holdt ifølge sensor «et lavt nivå», mens litteraturlisten var fyldig.

Og etter å ha sjekket alle kildene, fant sensor ut at «de aller fleste av dem er feilaktige og noen regelrett forfalskede». For eksempel viste studenten stadig til sidetall som ikke eksisterte i de oppførte kildene. Andre kilder inneholdt ikke den informasjonen studenten hevdet den gjorde. 

Studenten refererte også til et kapittel som tilsynelatende ikke eksisterte. Boka, som handler om krigen mot narkotika i USA, var reel, men sensor kunne ikke gjenfinne det oppgitte kapittelet.

ChatGPT er kjent for å dikte opp kilder som ikke finnes, og det er mye mulig at det er det som har skjedd her, mente sensor.

Konfrontert med dette, innrømmet studenten å ha jukset. Han hadde brukt taleroboten ChatGPT, og i tillegg plagiert et kompendium hentet fra en nettside.

Da nemnda for studentsaker behandlet saken, konkluderte den med forsettlig fusk. Reaksjonen ble annullering av oppgaven og utestengelse i ett år.

Sak 3: Sensor sjekket med ChatGPT

Den tredje saken ved USN handler om en bachelorstudents innlevering i et helsefag. 

Blant annet stusset faglærer over at språket varierte. Noen steder var det god flyt og rettskriving, andre steder ikke.

Studenten fikk først besvarelsen i retur, med blant annet beskjed om at referansene i teksten måtte stemme med litteraturlisten. 

I den nye versjonen fjernet studenten flere referanser. Faglærer testet selv ut ChatGPT til å besvare oppgaven, og ba den om å oppgi referanse. Da taleroboten foreslo en referanse som studenten hadde brukt i førsteutkastet, men fjernet i andreutkastet, ble mistanken styrket.

Studenten ble innkalt til samtale og la kortene på bordet. Hun fant først kildene ved å bruke KI-verktøyet til Snapchat, innrømmet hun. 

Dette brukte hun også til å oversette en artikkel fra engelsk til norsk, og hun mente det kunne være forklaringen på at språket varierte. Hun mistet en kilde, og valgte da å ta bort alle kildene, forklarte hun.

Hun sa videre at hun ikke kjente til at det var juks å bruke KI-verktøy, men nemnda svarte at dette var det hennes ansvar å sette seg inn i.

Utfallet ble annullering, samt utestengelse høstsemesteret 2023 og fram til 30. mars 2024.

 Sak 4: — Brukte venninnes kompendium 

I den fjerde USN-saken reagerte faglærer på at en innlevering hadde en kilde «det ikke har vært mulig å spore».

Da studenten ble innkalt til samtale, forklarte hun at hun «benyttet venninnens kompendium, og at dette ikke er tilgjengelig på internett». Universitetet ba henne sende et bilde av kompendiet. Studenten sa senere at venninnen ikke fant kompendiet, og at hun muligens hadde kastet det.

Hun sa videre at hun «ikke er kjent med ChatGPT», ifølge sakspapirene.

Nemnda trodde ikke på studentens forklaring om kompendiet. Den uriktige kildehenvisningen er «et klart objektivt holdepunkt for at studenten har fusket forsettlig», mente den, og fastslo at studenten «forsettlig har forsøkt å fremstille arbeidskravet som sitt eget arbeid til tross for at det er utarbeidet av andre enn studenten.

Reaksjonen ble utestengelse i høstmesteret og fram til 30. mars 2024.

NTNU: Fem mistanker, én sak behandlet

NTNU har også i flere mistenkt juks med kunstig intelligens, men kun én er ferdigbehandlet av nemnda for studentsaker. 

To saker ble avsluttet fordi universitetet ikke fant tilstrekkelig grunnlagt til å oversende dem til nemnda, opplyser universitetet. 

To er fortsatt til behandling, men har ennå ikke blitt oversendt nemnda. 

I den ferdigbehandlede saken, som ser ut til å være i et historiefag, konkluderte nemnda med at studenten hadde jukset. 

Sak 5: Bok som ikke eksisterer

Sensorene mistenkte at studenten hadde brukte KI-verktøy blant annet på grunn av rot med referansene. 

De var ikke korrekt ført. Flere artikler og bøker var referert i oppgaveteksten, men fantes ikke i litteraturlisten. Utsagn brukt i oppgaveteksten var tillagt feil forfatter. Dessuten inneholdt litteraturlisten et stort antall artikler og tidsskrifter som ikke eksisterer. For eksempel hadde studenten referert til boka «Sjøens folk. Kystens samfunn i middelalderen» av Hans Jacob Orning, en bok som ifølge sensorene ikke finnes. 

I sakspapirene Khrono har fått innsyn i, har NTNU sladdet studentens forklaring. Derfor er det uklart om personen innrømmet fusk.

Men nemnda konkluderte med at «studenten har opptrådt forsettlig ved å ha brukt kilder (KI-verktøy) uten å ha oppgitt dette». 

NTNUs praksis i saker om manglende kildehenvisning, der studenten har opptrådt forsettlig, er annullering av eksamen og utestenging i to semestre. Det ble derfor reaksjonen i også denne saken. 

Slik kan du oppdage ChatGPT-juks

Det kan være vanskelig å oppdage, for ikke å si bevise, ChatGPT-bruk. 

Men som eksemplene viser, er det fullt mulig å se indikasjoner på at hele eller deler av teksten er generert av kunstig intelligens (KI).

Her er noen tegn du som sensor kan se etter: 

  • Teksten er generell, siden ChatGPT mangler fagkunnskap om spesifikke områder.
  • De samme formuleringene går igjen i teksten.
  • Språket og tonen endrer seg: Det kan bety at deler av besvarelsen er studentens eget språk, mens andre kommer fra ChatGPT.
  • Det mangler referanser, det er feil i dem eller de eksisterer ikke.
  • Den har ikke polariserende meninger og banneord. Siden samtaleroboten ikke vil «støte» noen, unngår den å komme med fornærmende og polariserende utsagn.
  • Den har ikke informasjon om hendelser etter 2021. For alt som har skjedd etter 2021, finnes ikke for ChatGPT.

Det er også mulig å kjøre teksten gjennom et detektor-program, som sier om det er sannsynlig at den er generert av KI. Men det er delte meninger om hvor pålitelige disse er, og om de i det hele tatt bør brukes.

Les mer her: 

Powered by Labrador CMS