Kuns­tig in­tel­li­gens

An­kla­get for fusk av KI-detektor. — Folk er redde

Ma­thil­de valg­te å for­tel­le om opp­le­vel­sen sin et­ter å ha bli an­kla­get for KI-fusk. Nå har LinkedIn-inn­leg­get hatt nes­ten 70.000 vis­nin­ger.

Ma­thil­de Reb­nord ret­ter kri­tikk mot fore­le­se­re som bru­ker KI-de­tek­to­rer for å se et­ter KI-fusk.
Publisert Sist oppdatert

Ma­thil­de Reb­nord og to med­stu­den­ter le­ver­te inn siste ut­kas­t til en grup­pe­opp­ga­ve og gikk inn i hel­gen med sen­ke­de skuld­re og mest­rings­fø­lel­se. Man­da­gen et­ter kom sjok­ket: De ble an­kla­get for å ha brukt kuns­tig in­tel­li­gens.

Reb­nord, som går på stu­di­et «In­no­va­sjon, mar­keds­fø­ring og le­del­se» ved NLA Høg­sko­len, valg­te å fortelle om opplevelsen i et inn­legg på LinkedIn like før påske. I inn­leg­get kri­ti­ser­er hun høgskolen og for­teller om hvordan det oppleves å bli an­kla­get for KI-fusk. 

Skjermdump fra LinkedIn

Innlegget har nå hatt nes­ten 70.000 vis­nin­ger.

Det som an­gi­ve­lig fel­te grup­pen hen­nes, var en KI- de­tek­tor som fore­le­se­ren had­de lagt inn opp­ga­ven de­res på. GPTZero skal ha fastslått at 34 prosent av oppgaven var KI-generert.

— Var veldig påpasselige

Tre da­ger et­ter at de le­ver­te ar­beids­kra­vet, ble de inn­kalt til møte av fore­le­se­ren.

— Vi fikk først litt pa­nikk et­ter inn­kal­lin­gen til mø­tet, men vi tenk­te at det vil­le hol­de å være ær­lig og for­tel­le at vi ikke had­de brukt KI, sier Reb­nord. 

Fore­le­se­ren i fa­get had­de gjort det klart og ty­de­lig at stu­den­te­ne ikke fikk bru­ke kuns­tig in­tel­li­gens som verk­tøy i ar­beids­kra­vet.

— Vi vet at fore­le­se­ren slår hardt ned på KI-bruk. Der­for var vi vel­dig på­pas­se­li­ge og var enige og ty­de­lige inn­ad i grup­pen på at vi ikke skul­le la KI skri­ve teks­ten for oss, fort­set­ter Reb­nord.

— Det ble en vel­dig en­veis sam­ta­le

Hun og en annen i gruppen gikk inn i mø­tet med håp om å bli fri­kjent for mistankene om fusk.

— Vi har hørt om slike si­tua­sjo­ner før, der fore­le­se­ren mis­ten­ker juks, men hvor studentene får mu­lig­het til å for­sva­re teks­ten sin og vise til «be­vis» som kan mot­be­vi­se teo­ri­en om at KI er blitt brukt, sier hun.

— Vi var for­be­redt på et slikt sce­na­rio: Vi kun­ne teks­ten vår uten­at, og vi had­de no­ta­ter med fra skri­ve­pro­ses­sen til opp­ga­ven. Det end­te opp med at vi ikke fikk snak­ke om pen­sum, vise ChatGPT-log­gen vår, no­ta­te­ne våre el­ler vise til noen form for be­vis i vår fa­vør.

I stedet fikk studentene be­skjed om at der­som de skul­le få se hva som var mar­kert som KI-ge­ne­rert, så var fore­le­se­ren nødt til å opp­ret­te en fus­ke­sak på dem.

— Vi opp­lev­de det som en skrem­selstak­tikk. En fus­ke­sak hør­tes skum­melt ut, så vi tak­ket nei til for­slaget om å opp­ret­te en, sier Reb­nord. 

— Folk er redde

Hun og med­stu­den­ten klar­te ikke å over­be­vi­se den emnean­svar­lige om at de var uskyldige. De følte at ingenting av det de sa, hjalp.

— Vi sa til fore­le­se­ren at vi har hørt fra and­re pro­fes­so­rer at KI-de­tek­to­rer er upå­li­te­li­ge, forteller Rebnord.

Stu­den­te­ne ble til slutt nødt til å skri­ve hele opp­ga­ven på nytt, men den­ne gan­gen på eng­elsk, med et helt nytt tema. 

Verken Reb­nord, el­ler med­stu­den­te­ne, har ald­ri tid­li­ge­re opp­le­vd å bli an­kla­get for juks, og opp­le­vel­sen ga ikke mer­smak.

— Jeg opp­lev­de det som vel­dig ube­ha­ge­lig og frust­re­ren­de, sier NLA-studenten.

Hun valg­te å dele opp­le­vel­sen sin på LinkedIn i ste­det for å ta saken videre med høgskolen, et­ter å ha hørt om andre som had­de kla­get dit og fått sent og skuf­fen­de svar tilbake.

— Det er frust­re­ren­de å bli an­kla­get for KI-juks, og så blir ikke stem­men vår hørt, oppsummerer hun.

Hun har i et­ter­kant snakket med andre ­stu­den­ter som har fortalt at de med vilje brukte dårlig språk når de skrev, for å ikke bli mis­tenkt for KI-juks.

Snart er det eks­amen, og stu­den­te­ne går med høye skuld­re, forteller Rebnord.

— Folk er redde for å ta eks­amen i fa­get, for­di de vet det blir brukt KI-de­tek­tor, og fryk­ter å bli feil­dømt på KI-fusk.

Kon­se­kven­se­ne blir dår­li­ge eks­ame­ner.

— Vi fø­ler vi må for­dum­me oss. Det er utro­lig synd, sier hun ned­stemt. 

NLA be­nek­ter KI-sen­sur

I en kom­men­tar på LinkedIn-inn­leg­get til Ma­thil­de Reb­nord skri­ver NLA føl­gen­de: 

«Vi er opp­tatt av god dia­log og ryd­dig kom­mu­ni­ka­sjon med våre stu­den­ter. In­gen stu­den­ter som hol­der seg in­nen­for de fast­sat­te reg­ler ved NLA an­gå­en­de bruk av KI skal be­hø­ve å være be­kym­ret for å bli urett­mes­sig tatt for det. Fore­le­ser­ne hos oss bru­ker ikke KI til ret­ting av opp­ga­ver.»

NLA skri­ver til Khrono at de­res fore­le­se­re ikke bru­ker KI i ret­ting av opp­ga­ver.

I en e-post til Khrono skri­ver kom­mu­ni­ka­sjons­le­der ved NLA, Sol­frid Øv­re­bø Ebbesen, omtrent det sam­me: 

«Vi er opp­tatt av god dia­log og ryd­dig kom­mu­ni­ka­sjon med våre stu­den­ter. Stu­den­ter som føl­ger NLA sine ret­nings­lin­jer for bruk av kuns­tig in­tel­li­gens (KI), skal ikke be­hø­ve å be­kym­re seg for å bli urett­mes­sig mis­tenkt for re­gel­brudd. Våre fore­le­se­re be­nyt­ter ikke KI i vur­de­ring el­ler sen­sur av stu­dent­ar­beid.»

Vi­de­re skri­ver hun:

«Det vil all­tid være men­nes­ker som fore­tar vur­de­rin­ge­ne av stu­dent­ar­beid hos oss. Det­te kan våre stu­den­ter være tryg­ge på.»

Avslutningsvis skriver hun at høgskolen ikke ønsker å «gå inn i en­kelt­sa­ker knyt­tet til våre stu­den­ter».

Khrono har forsøkt å komme i kontakt med den aktuelle foreleseren. Ebbesen opplyser at vedkommende ikke øns­ker å kom­men­tere sa­ken selv.

— Makt­mis­bruk

Karl Phi­lip Lund, høgsko­le­lek­tor i di­gi­tal mar­keds­fø­ring ved Høy­sko­len Kris­tia­nia, ble tag­get i LinkedIn-inn­leg­get til Reb­nord. Un­der inn­leg­get skri­ver han:

Portrett av Karl Philip Lund
Karl Phi­lip Lund, høy­sko­le­lek­tor ved Høy­sko­len Kris­tia­nia og part­ner i INEVO

— Det du be­skri­ver er ikke et AI-pro­blem. Det er et le­del­ses­pro­blem.

Vi­de­re ret­ter han kri­tikk mot fore­le­se­ren.

— AI-de­tek­to­rer fun­ge­rer ikke. Det er do­ku­men­tert. De gir fals­ke po­si­ti­ver på helt van­lig stu­dent­tekst. At en fore­le­ser bru­ker et verk­tøy hen ikke for­står til å an­kla­ge stu­den­ter for juks — og nek­ter å vise rap­por­ten — er ikke tek­no­lo­gi. Det er makt­mis­bruk.

Overfor Khrono trek­ker Lund fram usik­ker­he­ten rundt KI-de­tek­torer.

— KI-de­tek­to­rer er kjent for å vise fals­ke po­si­ti­ver, og er gan­ske ubru­ke­li­ge. Jeg tror fore­le­se­ren ikke vet nok om det.

Lund har en løs­ning på pro­ble­ma­tik­ken knyt­tet til KI-fusk.

— Vi må lage vur­de­rings­for­mer der KI ikke kan gjø­re job­ben for deg, som vi­ser pro­ses­sen, ikke bare pro­duk­tet.

Powered by Labrador CMS