Debatt ● Atle Guttormsen

Slutt å jakte på «KI-fusk» — begynn å forstå KI

«KI-fusk» er et meningsløst begrep, skriver NMBU-professor Atle Guttormsen i et svar til Ellen Nierenberg.

Når vi bruker energien vår på å jakte «KI-fusk» med virkemidler som allerede er utdaterte, sender vi et signal om at vi ikke forstår teknologien vi forsøker å regulere, skriver forfatteren. — Det er det som virkelig bør bekymre oss.
Publisert

Denne teksten er et debatt­inn­legg. Inn­holdet i teksten uttrykker forfatterens egen mening.

Ellen Nierenberg foreslår i Khrono at sidetall ved parafrasering skal være et «enkelt grep mot KI-fusk». Det er vel og bra å ville styrke kildehåndtering, men premisset hviler på et begrep som akademia snarest bør kvitte seg med: «KI-fusk».

Kunstig intelligens beveger seg i et tempo som gjør at det noen i dag kaller «fusk» vil fremstå komisk om kort tid. 

Vi er midt i et teknologisk skifte som fundamentalt endrer hvordan tekst produseres, og da kan vi ikke forankre regelverket vårt i en antakelse om at KI-bruk i seg selv er problematisk. 

Jeg tar meg selv i å skrive om tekster jeg har fått fra KI — såkalt «humanisering» — ikke fordi teksten blir bedre, men fordi den ikke skal se ut som KI. Resultatet er stort sett dårligere tekst. Det er en absurd situasjon.

Nierenbergs konkrete forslag er at sidetall skal gjøre det lettere å «avsløre» KI-generert tekst. Men gode KI-verktøy kan allerede i dag finne og oppgi sidetall. 

Forslaget er derfor utdatert før det er innført. 

Og la oss være ærlige: det finnes mengder av akademisk skriving der sidetall ved parafrasering er direkte meningsløst — når du refererer til et overordnet argument, en hel studie, eller et teoretisk rammeverk.

Å bygge KI-politikk på den erfaringen er som å konkludere med at elbiler er ubrukelige fordi du kjørte en Think i 2008.

Atle Guttormsen

Selvsagt skal vi avsløre feil bruk av kilder. Selvsagt skal vi reagere på referanser som ikke eksisterer. 

Men det skal vi uavhengig av om teksten er skrevet av et menneske eller en maskin. Dårlig kildearbeid er dårlig kildearbeid — punktum.

Den største utfordringen med KI i akademia er ikke studentene som bruker den. Det er alle de som enten ikke kan KI, eller som tror de kan det fordi de prøvde ChatGPT én gang og fikk noe rart tilbake. 

Å bygge KI-politikk på den erfaringen er som å konkludere med at elbiler er ubrukelige fordi du kjørte en Think i 2008.

Akademia trenger fagfolk som faktisk forstår hva moderne KI-verktøy kan og ikke kan. Som vet forskjellen på en grunnmodell og et finjustert verktøy. Som kan veilede studenter i god bruk av KI, ikke bare skremme dem bort fra det.

Når vi bruker energien vår på å jakte «KI-fusk» med virkemidler som allerede er utdaterte, sender vi et signal om at vi ikke forstår teknologien vi forsøker å regulere. Det er det som virkelig bør bekymre oss.

Powered by Labrador CMS