Debatt ● Atle Guttormsen
Slutt å jakte på «KI-fusk» — begynn å forstå KI
«KI-fusk» er et meningsløst begrep, skriver NMBU-professor Atle Guttormsen i et svar til Ellen Nierenberg.

Denne teksten er et debattinnlegg. Innholdet i teksten uttrykker forfatterens egen mening.
Ellen Nierenberg foreslår i Khrono at sidetall ved parafrasering skal være et «enkelt grep mot KI-fusk». Det er vel og bra å ville styrke kildehåndtering, men premisset hviler på et begrep som akademia snarest bør kvitte seg med: «KI-fusk».
Kunstig intelligens beveger seg i et tempo som gjør at det noen i dag kaller «fusk» vil fremstå komisk om kort tid.
Vi er midt i et teknologisk skifte som fundamentalt endrer hvordan tekst produseres, og da kan vi ikke forankre regelverket vårt i en antakelse om at KI-bruk i seg selv er problematisk.
Jeg tar meg selv i å skrive om tekster jeg har fått fra KI — såkalt «humanisering» — ikke fordi teksten blir bedre, men fordi den ikke skal se ut som KI. Resultatet er stort sett dårligere tekst. Det er en absurd situasjon.
Nierenbergs konkrete forslag er at sidetall skal gjøre det lettere å «avsløre» KI-generert tekst. Men gode KI-verktøy kan allerede i dag finne og oppgi sidetall.
Forslaget er derfor utdatert før det er innført.
Og la oss være ærlige: det finnes mengder av akademisk skriving der sidetall ved parafrasering er direkte meningsløst — når du refererer til et overordnet argument, en hel studie, eller et teoretisk rammeverk.
Å bygge KI-politikk på den erfaringen er som å konkludere med at elbiler er ubrukelige fordi du kjørte en Think i 2008.
Selvsagt skal vi avsløre feil bruk av kilder. Selvsagt skal vi reagere på referanser som ikke eksisterer.
Men det skal vi uavhengig av om teksten er skrevet av et menneske eller en maskin. Dårlig kildearbeid er dårlig kildearbeid — punktum.
Den største utfordringen med KI i akademia er ikke studentene som bruker den. Det er alle de som enten ikke kan KI, eller som tror de kan det fordi de prøvde ChatGPT én gang og fikk noe rart tilbake.
Å bygge KI-politikk på den erfaringen er som å konkludere med at elbiler er ubrukelige fordi du kjørte en Think i 2008.
Akademia trenger fagfolk som faktisk forstår hva moderne KI-verktøy kan og ikke kan. Som vet forskjellen på en grunnmodell og et finjustert verktøy. Som kan veilede studenter i god bruk av KI, ikke bare skremme dem bort fra det.
Når vi bruker energien vår på å jakte «KI-fusk» med virkemidler som allerede er utdaterte, sender vi et signal om at vi ikke forstår teknologien vi forsøker å regulere. Det er det som virkelig bør bekymre oss.
Nylige artikler
Kommunesektoren trenger mer kompetanse på forskning
Ny søkerrekord for BI
Ny rapport: Amerikanske universiteter må ta ansvar for fallende tillit
Khronos KI-skole starter opp igjen
Året da KI ble hverdag i norsk akademia
Mest leste artikler
Ho er inkompetent og upåliteleg, meiner professoren. — Maktmisbruk, svarer ho
Foreleseren kaster ut alle som bruker skjermer under forelesningene
Studenter skriver bevisst dårligere for å unngå KI-mistanke. — Ikke gjør det
Nav står fast på at ekstern sensor ikke får sykepenger
Han er 85 år og har nettopp levert en doktoravhandling