Kunstig intelligens

Også «prompter» fra KI-verktøy skal arkiveres. — Trenger bevisstgjøring

Bruker du kunstig intelligens i arbeidet med rapporter, begrunnelser eller avgjørelser? Da kan du måtte ta en strafferunde for å dokumentere KI-bruken for ettertiden. 

Smilende kvinne avbildet i kontorlandskap.
Har du brukt kunstig intelligens til å lage noe som skal brukes til å ta viktige beslutninger, så skal bruken av kunstig intelligens også dokumenteres. Det er den klare talen fra Kristin Jacobsen, avdelingsdirektør i Arkivverket.
Publisert Sist oppdatert

I trangere tider der færre må gjøre mer, vil nok de færreste takke nei til muligheter for mer effektiv arbeidsflyt. De siste årenes inntog av KI-verktøy åpner for nettopp det, blant annet ved begrunnelse for karakterer.

— Bruker du kunstig intelligens til å lage begrunnelsen, skal det dokumenteres, sier Maj Schian Nielsen, KI-koordinator ved Universitetet i Agder.

Hvor mye som må dokumenteres og tas vare på for ettertiden i offentlige virksomheter som universiteter og høgskoler, varierer kraftig. Du trenger ikke lagre hele loggen med instrukser («prompter») og svar hver gang du får litt hjelp, men jo viktigere saker det som genereres skal brukes til, for eksempel å ta viktige avgjørelser, desto mer må dokumenteres og arkiveres.

Og viktigst av alt: Dokumentasjonen, det være seg i metadata eller metodekapitler, må følge dokumentet, rapporten, beslutningen, eller hva det nå er du har fått hjelp av kunstig intelligens til å lage, slik at de som leser det til slutt kan finne igjen hvordan kunstig intelligens ble brukt.

— Det viktigste er at dokumentasjonen er tilstrekkelig med tanke på innsyn og etterprøvbarhet, sier Kristin Jacobsen, avdelingsdirektør i Arkivverket.

Skal dokumenteres

I Agder jobbes det for tiden med et prosjekt der universitetet lager et eget verktøy som bruker språkmodeller til å lage utkast til begrunnelser for eksamenskarakterer.

Selv om de nå lager et verktøy der dokumenteringen og arkivering av KI-bruk er ivaretatt, er det noen som har brukt hjemmesnekrede løsninger tidligere.

— Det er alltid noen som benytter seg av systemer som ikke er godkjente, uten at det nødvendigvis blir fanget opp. Vi bygger verktøyet for å unngå at sensorer skal bruke udokumenterte løsninger uten mulighet for sporing, sier Nielsen.

I forbindelse med prosjektet ble det sendt ut en spørreundersøkelse der flere av de spurte fortalte at de allerede bruker kunstig intelligens til begrunnelser. 

Smilende kvinne
Det er alltid noen som benytter seg av systemer som ikke er godkjente, uten at det nødvendigvis blir fanget opp, sier Maj Schian Nielsen.

Den typiske arbeidsmetoden blant sensorene var ifølge rapporten å legge inn tidligere begrunnelser, sensorveiledningen og notater fra sensuren, og i retur få et utkast til begrunnelse som måtte justeres manuelt.

Det undersøkelsen ikke sier noe om, er hvorvidt bruken av KI ble dokumentert.

For i tillegg til arkivloven, forvaltningsloven og offentlighetsloven kommer nå også KI-loven inn i løpet av neste år. I denne buketten av lovverk ligger det krav til hva som skal dokumenteres i offentlig saksbehandling, forteller Kristin Jacobsen i Arkivverket.

— Har du brukt kunstig intelligens i prosessen med å komme fram til noe som skal brukes til å ta viktige beslutninger, så skal det dokumenteres, sier hun og legger til:

— Kunstig intelligens gir store muligheter til å effektivisere, og det oppfordres også fra regjeringshold til det, men skal det effektivisere på den måten, må det gjøres risikovurderinger, og det må vurderes hva som skal dokumenteres.

Varierende bevissthet

At det skal dokumenteres, er tydelig i UiAs egenutviklede verktøy for kunstig intelligens-skriving av begrunnelser. 

«Dersom du velger å bruke verktøyet skal kandidatene informeres om at begrunnelsene bygger på KI-genererte utkast», står det øverst på siden.

Noe tilsvarende finnes ikke i ChatGPT eller andre språkmodeller som kan brukes på samme vis. Heller ikke i andre KI-tjenester som skriver møtereferater, bryter ned store datamengder i enkle tabeller, lager sammendrag eller gir forslag til løsning på et problem.

— Det er nok veldig stor variasjon i hvor bevisste folk som bruker KI i den offentlige forvaltningen er på det med å dokumentere og arkivere bruken, sier Jacobsen.

Utfordrende situasjon

Hvis det som kommer ut av språkmodellen, er dokumentasjon som er viktig for en avgjørelse, bør instrukser, hva som eventuelt er lastet opp, hvilken språkmodell som brukes og hva den eventuelt er trent på, dokumenteres. Brukes språkmodellen bare til å bedre språket i en e-post, er det ikke fullt så farlig.

Men det som gjør det ekstra vanskelig, mener Jacobsen, er at lik input ikke alltid fører til lik output. Bruker en logiske funksjoner, kan en alltids gå tilbake til funksjonen og få samme svar. Men med kunstig intelligens er det ikke det samme en-til-en-forholdet. 

Avdelingsdirektøren omtaler situasjonen som utfordrende fra et arkivperspektiv.

— Det skjer mye nå, så det må jobbes mye med veiledning knyttet til disse spørsmålene, og det er spesielt relevant i forbindelse med den nye arkivforskriften som trer i kraft ved nyttår.

Hun forteller at den nye forskriften har fokus på at det skal være mulig å bruke nye teknologier som for eksempel kunstig intelligens, samtidig som at det dokumenteres for å ivareta tillit og gjøre det mulig å ettergå.

— Mange verktøy har blitt veldig tilgjengelig for veldig mange, og da er det en fare for at det brukes litt for ukritisk. Jeg håper de fleste er ganske bevisste, men vi trenger en generell bevisstgjøring, avslutter hun.

Powered by Labrador CMS