Debatt ● Kariin Sundsback og Elise M. Vike Johannessen

Vi trenger en ny måte å vurdere masteroppgaver på

Tiden er inne for nasjonale retningslinjer for forsvarlig bruk av kunstig intelligens i høyere utdanning, spesielt knyttet til masteroppgaver.

Vi kan i dag være sikre på én ting: vi vet ikke alltid hvem som faktisk har skrevet masteroppgavene vi vurderer, skriver forfatterne.
Publisert Sist oppdatert

Denne teksten er et debatt­inn­legg. Inn­holdet i teksten uttrykker forfatterens egen mening.

Som sensorer kan vi i dag være sikre på én ting: vi vet ikke alltid hvem som faktisk har skrevet masteroppgavene vi vurderer. Uten nye vurderingsformer risikerer vi å gi grader til studenter som ikke selv har utført arbeidet som skal ligge til grunn. 

Vi trenger en ny måte å vurdere masteroppgaver på, slik at vi kan bedømme studentenes evne til å utføre selvstendig arbeid, lesing, tenking, forskning og skriving, som jo er forventet av en akademisk masteroppgave. 

Derfor mener vi at tiden er inne for nasjonale retningslinjer for forsvarlig bruk av kunstig intelligens i høyere utdanning, spesielt knyttet til masteroppgaver. Slike retningslinjer må følges opp med opplæring og kompetanseheving, både for studenter og vitenskapelig ansatte.

Kunstig intelligens har blitt allemannseie og mange studenter bruker det daglig for å få hjelp, veiledning og, kanskje, for lettere å komme seg gjennom studiene sine. 

I debatter om bruk av KI i høyere utdanning har det vært mye fokus på plagiat og fusk med KI, men så lenge vi som sensorer ikke har sikre metoder for å avdekke KI-generert tekst, står vi i et betydelig og alvorlig dilemma: vi kan mistenke, men sjelden bevise. 

Resultatet er at studenter kan bestå, og til og med få gode karakterer, for oppgaver de ikke har skrevet selv. 

Starter vi en fuskesak, er bevisbyrden så høy at utfallet ofte blir frifinnelse. Vi har ingen metoder eller verktøy til rådighet som med sikkerhet kan hjelpe oss med å fastslå KI-fusk eller KI-generert tekst. 

I tillegg er sensorveiledningene våre ofte mangelfulle eller vage når det kommer til KI-generert tekst i oppgaver og det er derfor ikke tydelig for sensorene hvordan vi skal vektlegge mistanke om KI-generert tekst i den endelige vurderingen.

I mange av masteroppgavene vi har sensurert, kan presentasjonen av tidligere forskning, teori eller begreper ofte virke solid, dersom den som leser ikke har så mye kunnskap om emnet fra før. 

Hvis leseren vet mye om emnet og dobbeltsjekker referanser, vil hen kunne vise til svakheter i teksten, der korrekte elementer blandes med feil eller irrelevante påstander, som kan være tegn på typiske KI-hallusinasjoner. 

I én oppgave, for eksempel, var språkbruken svært ujevn: fra korte, umodne setninger med talespråk og dårlig struktur til avanserte, pompøse avsnitt uten reelt innhold. Dette avviket i språket gjorde at vi mistenkte at store deler ikke var skrevet av studenten, men av KI. Referansene var korrekt oppført i henhold til APA 7, men når vi leste kildene, virket det som om studenten ikke hadde lest dem selv. 

Vi fant faktafeil, unøyaktigheter og påstander som ikke stod i litteraturen i det hele tatt. Likevel hadde vi ingen bevis. Studenten kunne hevdet at hen hadde en dårlig dag da hen skrev det umodne språket, og en god dag da hen skrev det pompøse. Parafraseringene var vage og ofte feilaktige, men dette kunne også forklares med misforståelser eller slurv. 

Som sensorer har vi ingen mulighet til å avklare hva som faktisk er tilfelle.

Vi opplever at mange sensorer føler at arbeidet med å dokumentere uansvarlig KI-bruk er bortkastet, enten fordi det ikke er nok grunnlag for en fuskesak, eller fordi en medsensor ikke oppfatter KI-bruken som problematisk. Variasjon i KI-kompetanse blant ansatte fører til ulik vurdering av relativt like tilfeller. 

Resultatet er dermed urettferdig behandling og vurdering av studenter og svekket tillit til mastergraden. 

Derfor foreslår vi et nytt system for mastersensur der studentene ikke bare leverer en skriftlig oppgave, men også holder en muntlig presentasjon og forsvarer arbeidet sitt, helst også med veileder til stede. Da kan sensorene stille målrettede spørsmål der de mistenker KI-bruk, og i større grad ha mulighet til å vurdere om det er snakk om selvstendig arbeid. 

Vi forstår at dette vil kreve mer tid og ressurser både for veileder og for sensorene, men dagens situasjon, der sensorer dobbeltsjekker referanser og språk uten å kunne fastslå om teksten faktisk er studentens egen, er minst like tidkrevende, og langt mer frustrerende.

Nå må institusjonene ta KI på alvor, gi ansatte nødvendig opplæring og KI-kompetanse, og utvikle nasjonale retningslinjer som sikrer rettferdig og troverdig vurdering av masteroppgaver. Uten slike tiltak risikerer vi at mastergraden mister sin verdi, og at KI, ikke studenten, står som den egentlige forfatteren.

Forf.mrk.: GPT5 har gått gjennom teksten og gitt tilbakemeldinger på innholdet og strukturen av teksten. 

Powered by Labrador CMS