Debatt ● Atle Guttormsen
Slutt å jakte på «KI-fusk» — begynn å forstå KI
«KI-fusk» er et meningsløst begrep, skriver NMBU-professor Atle Guttormsen i et svar til Ellen Nierenberg.

Denne teksten er et debattinnlegg. Innholdet i teksten uttrykker forfatterens egen mening.
Ellen Nierenberg foreslår i Khrono at sidetall ved parafrasering skal være et «enkelt grep mot KI-fusk». Det er vel og bra å ville styrke kildehåndtering, men premisset hviler på et begrep som akademia snarest bør kvitte seg med: «KI-fusk».
Kunstig intelligens beveger seg i et tempo som gjør at det noen i dag kaller «fusk» vil fremstå komisk om kort tid.
Vi er midt i et teknologisk skifte som fundamentalt endrer hvordan tekst produseres, og da kan vi ikke forankre regelverket vårt i en antakelse om at KI-bruk i seg selv er problematisk.
Jeg tar meg selv i å skrive om tekster jeg har fått fra KI — såkalt «humanisering» — ikke fordi teksten blir bedre, men fordi den ikke skal se ut som KI. Resultatet er stort sett dårligere tekst. Det er en absurd situasjon.
Nierenbergs konkrete forslag er at sidetall skal gjøre det lettere å «avsløre» KI-generert tekst. Men gode KI-verktøy kan allerede i dag finne og oppgi sidetall.
Forslaget er derfor utdatert før det er innført.
Og la oss være ærlige: det finnes mengder av akademisk skriving der sidetall ved parafrasering er direkte meningsløst — når du refererer til et overordnet argument, en hel studie, eller et teoretisk rammeverk.
Å bygge KI-politikk på den erfaringen er som å konkludere med at elbiler er ubrukelige fordi du kjørte en Think i 2008.
Selvsagt skal vi avsløre feil bruk av kilder. Selvsagt skal vi reagere på referanser som ikke eksisterer.
Men det skal vi uavhengig av om teksten er skrevet av et menneske eller en maskin. Dårlig kildearbeid er dårlig kildearbeid — punktum.
Den største utfordringen med KI i akademia er ikke studentene som bruker den. Det er alle de som enten ikke kan KI, eller som tror de kan det fordi de prøvde ChatGPT én gang og fikk noe rart tilbake.
Å bygge KI-politikk på den erfaringen er som å konkludere med at elbiler er ubrukelige fordi du kjørte en Think i 2008.
Akademia trenger fagfolk som faktisk forstår hva moderne KI-verktøy kan og ikke kan. Som vet forskjellen på en grunnmodell og et finjustert verktøy. Som kan veilede studenter i god bruk av KI, ikke bare skremme dem bort fra det.
Når vi bruker energien vår på å jakte «KI-fusk» med virkemidler som allerede er utdaterte, sender vi et signal om at vi ikke forstår teknologien vi forsøker å regulere. Det er det som virkelig bør bekymre oss.
Nylige artikler
Slutt å jakte på «KI-fusk» — begynn å forstå KI
Kritiske til «mini-bachelor»: — Risikerer å utvanne begrepet
Kan valget i Ungarn gi universitetene friheten tilbake?
Velle og Melby bekymret for studentenes tidsbruk
Det lover ikke godt for MF at ansatte ikke ser forskjell på rasisme og islamkritikk
Mest leste artikler
Søknaden ble vraket. Klage ga ny sjanse og tommel opp
Store forskjeller mellom de mest og minst fornøyde studentene i sykepleie
Stipendiatens tidligere veileder krevde at avhandlingen skulle underkjennes
Ho veit at det kjem ein ny, vondarta svulst. No har ho tatt doktorgrad
Forskningsetikk: Dette synes forskere er mest uakseptabelt å gjøre