Debatt ● Tarjei Ellingsen Røsvoll
Skal teknologien få overta vurderingsarbeidet?
Det er ikke åpenbart at Malthe-Sørenssen-utvalget tar rett om forvaltningsretten når de anbefaler forsøk med KI i sensurarbeidet i høyere utdanning.

Denne teksten er et debattinnlegg. Innholdet i teksten uttrykker forfatterens egen mening.
Malthe-Sørenssen-utvalget anbefaler utstrakt hel- og delautomatisering av sensurarbeidet i høyere utdanning. De foreslår både testprosjekter med bruk av KI for å gi sensur og begrunnelser, og at KI skal fungere som støtte til sensuren, for eksempel i form av å skrive førsteutkast til sensur.
Det er sørgelig, og ikke åpenbart at utvalget tar rett om forvaltningsretten.
I en årrekke har vurderingsarbeidet i høyere utdanning blitt nedprioritert. Heller enn at eksamen er en anledning for et forskerfellesskap til å samle sine beste til å vurdere nykommerne, er vurdering blitt et nærmest administrativt anliggende der studenter skal få en attest på sin fremtidige verdi for arbeidsmarkedet.
Kulminasjonen av denne tendensen er den sønderrivingen av vurderingsarbeidet som teknologien nå tillater oss å gjennomføre.
Ved bruk av KI kan sensurarbeidet innledes ved at KI foretar en kort oppsummering av oppgaven og skriver utkast til begrunnelse. Dette markerer et radikalt skifte. Mens sensor tidligere kom fra sensormøte og et fagfellesskap med visse intersubjektivt skapte intuisjoner, skal de samme intuisjonene nå dannes av amerikanske techselskapers språkmodeller.
Vekk er muligheten sensuren gav for felles faglig utvikling på tvers av et fagfellesskap, der fagets standarder og kvalitetsbegrep ble videreutviklet i møte med konkrete eksamensbesvarelser.
Tilbake er et rent administrativt anliggende — å «evaluere» studentens prestasjon opp mot mer eller mindre objektive kriterier.
Ved mindre institusjoner der det å røkte et stort sensorkorps uansett ikke er mulig, er KI bare spikeren i kista. Men det er mer tvilsomt om institusjonene kan slå inn spikeren på egen hånd, slik utvalget antar. For dette handler også om juss og forvaltning.
Et grunnleggende trekk ved den norske forvaltningsmodellen er at den bygger på kommunikasjon. Regler om offentlighet, partsinnsyn og høringer skal sikre at forvaltningen kommuniserer sine avgjørelser til borgeren.
Slik sensoren formidler sensorkorpsets og fagfeltets forventninger til studenten, formidler saksbehandleren hele forvaltningsorganisasjonens forventninger gjennom vedtaket. Plikten til å gjøre selvstendige vurderinger og begrunne vedtak hviler på denne kommunikative grunntanken.
Det bygger på respekt for individet, som skal få en genuin begrunnelse — selv når vedkommendes ønsker ikke ble imøtekommet.
Spørsmålet er: Vil det være i samsvar med begrunnelsesplikten å «støtte» både vurderingen og begrunnelsen med tekst produsert av en språkmodell?
Utvalget slår fast at ren «hjelp» fra KI er lovlig, men gir ingen nærmere begrunnelse. Hvor grensen går mellom «støtte» og reell automatisering der sensor strør sand på vedtaket, er høyst uklart.
De anbefaler også forsøk med bruk til støtte, og varsler at de vil vurdere å foreslå lovhjemmel for mer omfattende automatisering. Retningen er med andre ord klar. Utvalget diskuterer formelle juridiske skranker — personvern, KI-forordningen og opphavsrett.
Men de overser forvaltningsrettens dypere kommunikative rasjonale: Hvor mye av sensors vurdering kan bli erstattet av KI før man kommer på kant med forvaltningens evne til å kommunisere?
Sivilombudet har i flere saker understreket at utstrakt bruk av standardformuleringer i begrunnelser er problematisk. Blant grunnene er verdien av å kommunisere med borgeren. Enda viktigere er at forvaltningen, ved å gi begrunnelse, må forklare hva deres egne vurderinger bygger på.
Sensor trenger knapt tenke selv. Lenkene til fagfellesskapet kan kappes, og kostnadene med dem.
At forvaltningen er i stand (eller ikke) til å forklare hvorfor en beslutning er riktig, gjør det mulig for borgeren å ha tillit til at alle relevante forhold er vurdert. Dersom begrunnelsen har mangler, vil dette sannsynligvis også avdekke mangler i vurderingene, og omvendt.
Ved «hjelp» fra KI kan forvaltningen slippe unna risikoen for å avdekke mangler i egen vurdering. Sensor trenger knapt tenke selv. Lenkene til fagfellesskapet kan kappes, og kostnadene med dem.
Man virkeliggjør på strukturelt nivå det skeptikere hevder om forvaltningen: At den gjør sine vurderinger, og deretter finner grunner for dem.
Utvalget skriver at ved automatiserte begrunnelser «kan grunnene KI-systemet oppgir avvike i større eller mindre grad fra de grunnene sensor hadde for å sette karakteren» (s. 41). Dette «behøver ikke å være en ulempe», mener de, så lenge studenten kan vurdere om hen skal klage.
Men begrunnelsesplikten handler ikke bare om klageadgang. Den handler om at forvaltningen må kunne redegjøre for sine egne vurderinger.
En begrunnelse skrevet av noen — eller noe — annet enn den som fattet vedtaket, oppfyller ikke denne funksjonen. Uansett hvor faglig god den måtte være.
Den moderne sensoren trenger kanskje KI. Uten levende fagfellesskap, jevnlige sensormøter og tid til den enkelte oppgave, kan KI supplere argumentene sensoren behøver. Mer effektivt blir det også.
Men å fremstille det som noe annet enn en tragedie, og som noe institusjonene selvsagt har lov til å gjøre, går ikke an.
Utvalget burde kanskje heller vurdert om institusjonene skulle skrive inn i sensorkontrakter, at bruk av KI til å skrive utkast til begrunnelse eller foreta en førstelesning, ikke er tillatt. Deretter burde sektoren igjen ta en titt på om vurderingsarbeidet kan komme på et bedre kjøl.
Skal vi ta enda et skritt i retning av å løsrive sensurarbeidet fra sitt faglige grunnlag, må det skje etter lovendring og diskusjon i Stortinget — og etter en grunnleggende debatt om hva et sensorvedtak egentlig er.