kunstig intelligens

Slakter NTNUs forslag til nye KI-regler. — Fjernt

NTNU har kommet med et utkast til nye retningslinjer for bruk av KI. Førsteamanuensis Andrey Chesnokov mener utkastet forholder seg til studenter som om de er advokater.

Mann med langt skjegg smiler foran ei tavle med matematiske utregninger
— Det er flaut at vi ikke er tydeligere overfor studentene, sier Andrey Chesnokov ved NTNU.

— Utkastet fra NTNUs arbeidsgruppe er så fjernt fra virkeligheten som man kan tenke seg. 

Denne salven kommer fra førsteamanuensis Andrey Chesnokov ved NTNU. 

FAKTA

Kritikk av KI-politikk på høring

  • Ei arbeidsgruppe ved NTNU har sendt ut et utkast til nye retningslinjer for bruk av KI på høring.
  • Førsteamanuensis Andrey Chesnokov mener utkastet legger for mye vekt på hva som ikke er tillatt for studenter, framfor å legge vekt på hva som er tillatt.
  • Chesnokov er også kritisk til at NTNU i utkastet viser til så mange lover og regler og sier det er urealistisk at studentene skal lese disse og vurdere dem opp mot hverandre. 
  • Ifølge forskeren er også NTNU for avvisende mot KI-sensur. 

Ei arbeidsgruppe har utarbeidet et utkast til nye retningslinjer for kunstig intelligens (KI) for alle som jobber ved NTNU med frist for å gi høringssvar 17. april. Utkastet og høringsuttalelser skal etter hvert danne grunnlaget for nye KI-retningslinjer ved universitetet. 

Chesnokov har gitt tilbakemeldinger via instituttet han er tilknyttet, Institutt for matematiske fag. Hans dom er at språket i utkastet er unødvendig byråkratisk og ikke gir studentene råd om hvordan de faktisk kan bruke kunstig intelligens. 

— Vi vet at de fleste studentene bruker KI i en eller annen form, og veldig mange er usikre på hva som er tillatt og ikke tillatt. NTNUs tilnærming er å ramse opp alt universitetet ikke tillater. De burde gjøre det stikk motsatte, og bruke eksempler som viser hvordan studenter kan bruke KI på en måte som er greit. 

Chesnokov mener at ansatte også rammes av noe av den samme innvendingene han kommer med, men tenker først og fremst på studentene. 

— Byråkratisk tilnærming

Matematikeren trekker fram retningslinjene til Aalborgs universitet som forbilledlige. De har egne retningslinjer for studenter og skriver helt i starten at KI kan være en verdifull ressurs for studenter. Deretter kan studenter gå rett inn og få eksempler på hvordan de kan bruke kunstig intelligens. 

I starten av utkastet fra NTNUs arbeidsgruppe blir det nevnt at retningslinjene skal sikre at bruk av IKT-verktøy med generativ kunstig intelligens skjer lovlig, ansvarlig og i tråd med krav til informasjonssikkerhet, personvern, etikk, faglig integritet og forvaltningsskikk.

I de punktene som spesielt gjelder studenter, heter det at de er pliktige til å: 

  • Ikke bruke KI-verktøy på en måte som undergraver formålet med en lærings- eller vurderingsaktivitet.
  • Sette seg inn i hvilke regler som gjelder for bruk av KI i det enkelte emne og vurderingssituasjon, og følge føringer fra faglærer eller emneansvarlig om bruk av KI, redegjørelse for KI-bruk, og eventuelt gjeldende referansestil ved behov for å sitere eller analysere KI-generert innhold.
  • Bruke KI-verktøy på en måte som er forenlig med krav til redelighet i akademiske arbeider, herunder aldri fremstille KI-generert innhold som eget arbeid eller bruke KI-generert innhold som faglig kilde.

Til slutt i retningslinjene listet det opp 13 relevante lover, retningslinjer og bestemmelser som til sammen skal gi et juridisk rammeverk for for bruk av generativ KI ved NTNU. 

— Det er helt urealistisk at studentene skal åpne alle disse lovene og reglene. Ingen studenter klarer å finne lovene og vurdere egen bruk opp mot disse. Dette er en ren byråkratisk tilnærming og det er flaut at vi ikke er tydeligere overfor studentene, sier Chesnokov. 

— Vi opererer ikke i dagliglivet med disse lovene med mindre du er advokat. Vi har de oppgavene vi må gjøre, og da trenger vi beskrivelser som passer for dagliglivet og ikke dette utkastet. 

Han konstaterer at utkastet fungerer hvis poenget er å ta noen som gjør noe feil og skal følge opp med rettssak. 

— Men poenget er at du ikke skal komme dit. Folk må være bevisste og trygge på det de gjør, slik at behovet for rettssaker ikke blir aktuelt. 

Mot å forby KI-sensur

I utkastet slås det fast at automatisk karaktersetting, eller andre vurderinger av studenter eller ansatte, ikke er tillatt. Så kategorisk bør ikke NTNU være, etter Chesnokovs mening.

— Saken er mye mer nyansert, sier han, og viser til det nasjonale utvalget for kunstig intelligens. 

Utvalgets foreløpige vurdering er at KI-sensur kan bli like bra som menneskelig sensur, og at flere studier har testet slik bruk med gode resultater. Tida er moden for å teste ut helt automatiserte systemer, foreslår utvalget. Det sier ikke at dette er situasjonen i dag, men at det kanskje kan bli slik innenfor enkelte fagområder. 

— Vi kan si at dette er forbudt og forby at jorda er rund, men dette skjer uansett om du ønsker det eller ikke. KI-sensur kan bidra til å gi en rettferdig sensur som vurderer hva de faktisk kan, noe studenter, ansatte og arbeidsgiver ønsker. 

Noen etiske spørsmål vil det være, understreker han, for eksempel hvem som skal være ansvarlig hvis noe går galt. 

— Men NTNU bør være offensiv i denne debatten og være med å teste ut om dette er noe å satse på, eller overhodet ikke. Vi må ha fakta og ikke ta stilling ut fra hva vi tror. Hvis vi klarer å få til bedre sensur med KI, hvorfor skal det da være forbudt? spør Andrey Chesnokov. 

Han sier seg enig med Karl Philip Lund, som i et innlegg i Khrono skriver at det vi trenger er vurderingsformer der KI ikke kan gjøre jobben for oss. Dette fordi det som vurderes er noe annet enn sluttproduktet. 

— Kanskje trenger vi nye vurderingsformer hvis vi ikke er fornøyde med at dagens eksamen muligens like greit kan vurderes av kunstig intelligens, sier Chesnokov. 

— Vil gjøre KI-bruk enklere

Prorektor for utdanning, Geir Egil Øien, forstår godt at det kan oppfattes som at NTNU har fokuset på hva som ikke er tillatt framfor å gi veiledning om hvordan man kan bruke KI. 

— Dette er særlig fordi retningslinjene må gjøre grenser tydelige, der det er risiko knyttet til personvern, informasjonssikkerhet og faglig integritet. Samtidig er hensikten nettopp å gjøre det enklere å bruke KI på en trygg måte, ved å gjøre det klart hva som er tillatt og hvilke rammer som gjelder på overordnet nivå for alle, skriver han i en e-post til Khrono.

— Har dere vært inne på tanken om å gjøre retningslinjene mer casebaserte for studentene, slik at de bidrar til å hjelpe studentene å bruke KI riktig?

— Retningslinjene er ikke ment å stå alene. De skal suppleres med veiledning, eksempler og støtteressurser som gjør det lettere for både studenter og ansatte å bruke KI på en læringsfremmende måte. 

Øien viser til at det allerede er gjort et omfattende og godt arbeid med å oppdatere hjelpesider for studenter i tråd med den raske utviklinga. 

— Vi mener uansett at hjelpesidene gir gode svar på hvordan studentene skal forholde seg til KI i sin studiehverdag. 

— Risiko

På spørsmål om hvorfor NTNU avviser KI-sensur, svarer prorektoren at retningslinjene legger vekt på å sikre faglig integritet og tillit til vurderingsformer. 

— Det må være tydelig hva som er tillatt i vurderingssituasjoner, og hvor grensene går. Risiko knyttet til uklar bruk av generativ KI i vurderinger gjør at NTNU er restriktive når det gjelder bruk av KI til selve fastsettelsen av karakterer, slår Øien fast. 

— Dette handler ikke om å avvise KI som sådan, men om å sikre rettferdige, etterprøvbare og faglig forsvarlige vurderinger, og å unngå sammenblanding av støtte til læring og juks.

Etter høringsfristen skal NTNU se nærmere på innspillene som kommer inn. Ifølge Øien er det derfor for tidlig å konkludere med om utkastet vil bli vesentlig endret. 

— NTNU er nå inne i en større revisjon av retningslinjene for bruk av IKT-verktøy med generativ KI som omfatter hele universitetet. Arbeidsgruppa vil deretter ta med seg innspillene i det videre arbeidet.

Powered by Labrador CMS