KI-skolen  del 7

Året da KI ble hverdag i norsk akademia

2025 var året da kunstig intelligens (KI) ble en del av hverdagen i norsk akademia. 2026 kan bli året da akademikere får superkrefter med KI, spår Morten Goodwin.

Retro pikselgrafikk med roboter, forskere, tog og ChatGPT- og Claude-logoer mellom norske og amerikanske flagg.
Illustrasjonen er laget med ChatGPT, etter at hele artikkelen ble limt inn og modellen ble bedt om å lage en figur i pikselert Atari-stil fra 80-tallet.
Publisert

Velkommen til en ny runde med Khronos KI-skole. Vi starter 2026-utgaven av skolen med en «forelesning» som gir en oversikt over de viktigste utviklingstrekkene på KI-fronten det siste året. Deretter blir det fire nye «forelesninger» der vi mer detaljert går gjennom noen av de viktigste nye verktøyene og bruksområdene.

For ett år siden lanserte vi KI-skolen i Khrono. Den gangen framsto kunstig intelligens som et nytt og nokså fremmed fenomen for de aller fleste i akademia. Når forskere og lærere snakket om kunstig intelligens, skjedde det ofte i form av kritikk, gjerne knyttet til uvettig bruk blant studenter – og særlig til juks på eksamen.

FAKTA

Khronos KI-skole

  • Professor Morten Goodwin har på oppdrag for Khrono laget en KI-skole i form av en artikkelserie.
  • Se hele KI-skolen — alle artiklene i serien — her.
  • De seks første artiklene i serien ble skrevet og publisert mellom januar og mars 2025.
  • I april-mai 2026 publiserer vi fem nye artikler.
  • Målet med KI-skolen er å vise hvordan kunstig intelligens kan forenkle og fornye den akademiske hverdagen.
  • Målgruppen er undervisere, forskere og administrativt ansatte ved universiteter og høgskoler.
  • Vi har valgt å ikke oppdatere de første seks artiklene i serien, som ble publisert vinteren 2025, selv om mye har skjedd på KI-fronten siden den gang. Jevnt over har svarene fra KI-modellene, spesielt språkmodellene som ChatGPT, blitt veldig mye bedre siden den gang. For eksempel er mengden hallusinasjoner, hvor KI-modellen feilaktig kommer med oppspinn, drastisk redusert. Det samme gjelder også skjevheter. Artiklene gir likevel en god innføring i de ulike temaene de tar opp og anbefales fortsatt for dem som vil komme i gang med KI.

I dag er situasjonen en helt annen. Det siste året har kunstig intelligens for alvor fått fotfeste ved norske høgskoler og universiteter. Språkmodeller som ChatGPT og Claude har utviklet seg i rasende fart og blitt så gode at de nå er faste følgesvenner for majoriteten av studentene og mange forskere, og på ingen måte bare i sammenhenger knyttet til juks. KI-modellene brukes som støtte i skrivearbeidet, som hjelp til å hente inn kunnskap og litteratur, og til en lang rekke andre oppgaver.

Hva den omfattende innføringen av KI vil gjøre med universiteter og høgskoler på sikt, er det ingen som vet. 

Det siste året har kunstig intelligens for alvor fått fotfeste ved norske høgskoler og universiteter.

Om framtidens universiteter blir steder der studentenes læring i stor grad skjer i samspill med intelligente KI-agenter, som fortløpende tilpasser seg behovene deres og vurderer automatisk, er umulig å vite. Det er også usikkert om forskere kommer til å bruke mye av tiden sin på å bygge egne agenter som utfører store deler av forskningen for dem, eller om akademia beveger seg i retning av større vekt på menneskelig tenkning og faglig skjønn. Det kan også hende vi ender et sted midt imellom.

Sikkert er det likevel at det siste året med KI-utvikling har gjort én ting klart. Kunstig intelligens har allerede blitt et gjennomgripende verktøy som griper inn i store deler av sektoren, i studiearbeidet, i undervisningen, i eksamensvurderingen, i administrasjonen, i forskningen og ikke minst i selve skrivearbeidet. Akademia er inne i en tid med store omveltninger, og utviklingen går lynende raskt.

Slik har KI allerede endret akademia

Det klareste løftet KI har gitt akademia, særlig det siste året, er at teknologien har blitt et arbeidsredskap for alle, på godt og vondt.

For mange forskere fungerer språkmodeller stadig oftere som en førstelinjes forskningsassistent, en samtalepartner man kan vende seg til med nesten hva som helst.

FAKTA

Morten Goodwin

  • Professor i kunstig intelligens ved Universitetet i Agder (UiA)
  • Underviser i kunstig intelligens og programmering for master- og doktorgradsstudenter
  • Tok doktorgrad i kunstig intelligens ved Aalborg Universitet i 2011 med avhandlingen Towards Automated eGovernment Monitoring 
  • Har publisert over 200 fagfellevurderte vitenskapelige artikler innen kunstig intelligens, med fokus på dype nevrale nettverk
  • Forfatter av boken «AI — myten om maskinene» (2020), som forklarer hva kunstig intelligens er og avliver myter rundt teknologien

Kilde: UiA, ChatGPT

Da er det heller ikke overraskende at teknologien stadig oftere brukes til vanlige tekstoppgaver, som språkvask, spissing av problemstillinger og sortering av notater, men også som støtte i mer krevende kunnskapsarbeid, som å foreslå litteratur, forklare metodevalg og lage førsteutkast til sammendrag, søknader og presentasjoner. 

Stadig flere tar også teknologien i bruk i det praktiske arbeidet med egen forskning, som støtte i koding av eksperimenter, analyse av resultater og ikke minst fagfellevurderinger.

I undervisningen brukes KI-verktøy stadig oftere til å klargjøre undervisningsopplegg, som å foreslå kilder og tekster, men også til å lage oppgaver knyttet til pensum, som quizer, ulike varianter av oppgaver, undervisningsnotater og tilpassede forklaringer på ulike nivåer, og ikke minst sammendrag og retting av oppgaver.

Studenter bruker på sin side verktøyene til å få forklart vanskelige begreper, prøve egen forståelse, lage disposisjoner, forbedre språket og få hjelp til å se hvor argumentasjonen svikter. 

Når kunstig intelligens kan utføre alle disse oppgavene, oppgaver som for kort tid siden var helt avhengige av menneskelig innsats, er det et tydelig tegn på at akademia er i endring.

Det er ikke lett å vite hvordan vi skal møte en slik teknologisk endring, og ikke minst hva vi bør tillate, og når KI-verktøyene bør unngås. Det er for eksempel i beste fall en stor utfordring dersom ChatGPT brukes til fagfellevurdering og retting av eksamen, i stedet for at forskere og lærere gjør det selv. Like krevende er det dersom store deler av masteroppgaven eller forskningsartikkelen blir skrevet av en språkmodell, snarere enn av studenten eller forskeren. 

På den andre siden byr det på få problemer når teknologien brukes som sparringpartner eller som et verktøy for språkvask.

KI har med andre ord ikke bare spart, eller frigjort, tid, men også endret hva slags oppgaver vi forventes å gjøre selv, enten vi er studenter, faglig ansatte eller del av administrasjonen, og hva vi kan vente at teknologien tar hånd om.

KI har rett og slett blitt en ny form for intellektuell støtte i akademia.

Det mest interessante venter likevel foran oss.

KI har rett og slett blitt en ny form for intellektuell støtte i akademia.

Når studenter, forskere og administrasjonen blir mer fortrolige med verktøyene, samtidig som teknologien blir bedre, vil KI trolig i mindre grad brukes som en avansert svarmaskin slik det ofte brukes i dag. Den vil sannsynligvis i større grad bli en integrert del av hele arbeidsflyten, enten det er tett integrert som assistent i litteratursøk, forskningsanalyse, skrivearbeid og utforming av undervisning.

Med mer agentiske verktøy vil KI snart ikke bare komme med forslag, men også utføre flerleddede oppgaver på våre vegne, hente inn materiale, sortere stoff, skrive utkast, oppdatere dokumenter og følge forskningsprosesser over tid. 

Nettopp derfor vil gevinstene ved KI i akademia trolig vokse kraftig i årene som kommer, men samtidig vil kravene til dem som bruker teknologien bli større. 

De som får mest ut av teknologien høyst sannsynlig være de som bruker den kritisk og som en faglig medhjelper, ikke de som bruker den som en erstatning for eget tankearbeid.

Mye brukt, men fremdeles «Ville Vesten»

Selv om det fantes eksempler på språkmodeller flere tiår tilbake, var det først da ChatGPT dukket opp i slutten av 2022, at teknologien virkelig ble tilgjengelig for alle. I år bruker over 90 prosent av universitets- og høgskolestudentene KI aktivt som del av studiearbeidet, ifølge Studiebarometeret 2025. De fleste bruker det ofte.

Bare 9 prosent hevder at de aldri bruker kunstig intelligens. Kunstig intelligens er dermed blitt en naturlig del av studiehverdagen.

Når vi i tillegg vet at KI-modeller ikke bare kan brukes til relativt enkle oppgaver som språkvask og litteratursøk, men også langt på vei kan løse mange av de kognitive oppgavene som både studenter og ansatte møter hver dag, er det ingen tvil om at den brede innføringen av KI er et grunnleggende skifte i akademia.

Men denne utviklingen går ikke likt for alle, for ikke alle studentgrupper har forelsket seg like mye i teknologien. De flittigste brukerne er blant dem som studerer administrative fag, tett fulgt av realfagene. 

Nederst ligger de humanistiske og estetiske fagene, hvor bare 38 prosent er aktive brukere. 

Noe av forklaringen på disse forskjellene ligger antagelig i fagene selv. Studentoppgaver i økonomi og realfag er ofte bygget slik at de gir tydelige og konkrete svar, der riktig svar på oppgaven blir belønnet mest, noe KI-modellene er svært gode på. I humanistiske fag, derimot, er tolkningen, nyansene og ikke minst tankeprosessen fram mot svarene vel så fruktbare som svaret i seg selv. Her gir KI mindre verdi.

Til tross for at kunstig intelligens for alvor har gjort sitt inntog i høyere utdanning det siste året, henger opplæringen og retningslinjene fortsatt langt etter

Ser vi på tvers av fagområdene, har den vanligste bruken av KI blant studenter blitt å få forklart et tema eller et begrep. Deretter følger kvalitetssikring av tekst, en bruk som i utgangspunktet skaper få problemer. Nederst i Studiebarometerets undersøkelser ligger generering av lyd eller video, tett fulgt av tekstgenerering. Sistnevnte er samtidig blant de mest betente formene for bruk, fordi den ofte ligger farlig nær eller direkte over i juks, når studenter ber KI-modellen skrive oppgaven for seg. Hele 17 prosent oppgir at de bruker KI-modellene slik.

Til tross for den utbredte bruken svarer bare 21 prosent av studentene at de får tilstrekkelig opplæring i bruk av KI-verktøy. Det er knapt noen framgang å snakke om sammenlignet med 2024, da andelen var 17 prosent. Et år med mye fokus på KI, forsøk på å lage retningslinjer og opplæring for studentene har bare økt andelen med fattige fire prosentpoeng. 

Med andre ord: Til tross for at kunstig intelligens for alvor har gjort sitt inntog i høyere utdanning det siste året, henger opplæringen og retningslinjene fortsatt langt etter.

Det betyr at for de fleste studenter framstår kunstig intelligens fortsatt som noe de i stor grad må finne ut av på egen hånd. Uten tydelige rammer for hva som er god og problematisk bruk, må studentene selv prøve seg fram i håp om at alt går bra i en akademisk «Ville Vesten». Det er ikke rart at antall fuskesaker har økt — det kommer vi tilbake til.

Mange i akademia har det siste året lært å bruke KI riktig, som å få forklart lærestoff, kvalitetssikre og redigere tekst, som diskusjonspartner eller til å oppsummere tekst. Gevinsten ved slik bruk av kunstig intelligens er utvilsomt reell.

Utfordringen oppstår dersom studenter og ansatte kan hoppe over vesentlige ledd i læringen. Man er ikke «basically tjukk i huet» hvis man nekter å bruke kunstig intelligens, slik Oljefondets Nicolai Tangen hevder. I akademia kan man bli tjukk i huet av for mye og feil bruk av kunstig intelligens. 

Vi kan alle utvikle en metakognitiv latskap ved uvettig KI-bruk, slik Malthe Sørensen-utvalget peker på — et utvalg vi også kommer snart tilbake til.

Illustrasjonstegning, lesesal, student, studier, studere
For de fleste studenter er kunstig intelligens fortsatt noe de i stor grad må finne ut av på egen hånd.

Norge i den globale KI-bølgen

Det er lett å tro at KI-omveltningen vi har vært vitne til de siste årene, er et globalt fenomen. Det er det selvsagt, men Norge og norsk akademia er i en særstilling.

Ikke bare har vi store ambisjoner om å være det mest digitale landet, med uttalte ambisjoner om at alle i offentlig sektor, det meste av akademia inkludert, skal bruke KI innen 2030. Men vi er allerede det landet i verden hvor individer bruker kunstig intelligens mest. 

I mengden bruk ligger vi, ifølge OECD, langt foran vårt naboland Danmark og milevis foran Sverige. Og størst er det, ikke overraskende, blant 16-24-åringer, de som typisk er i studentalder.

... vi er allerede det landet i verden hvor individer bruker kunstig intelligens mest

Vi har tatt i bruk teknologien i langt større grad enn mange andre land og er dermed også blitt langt mer avhengige av den. Det betyr likevel ikke at vi har kontroll over den. Norge er et lite land i en teknologisk verdensorden dominert av noen få svært store selskaper og stater.

I Norge er det Nasjonalbiblioteket som skal bygge og sikre norske språkmodeller, i samarbeid med flere av Norges dyktigste akademikere. Det finnes knapt noen som er flinkere på språk og teknologi enn Nasjonalbiblioteket og deres samarbeidspartnere, men det er ingen tvil om at de 45 millionene som i år ble lagt inn i statsbudsjettet for norske språkmodeller, blekner sammenlignet med det teknologigigantene investerer i sine språkmodeller.

Akademia løper etter tekgigantene

Til tross for mange dyktige KI-forskere i Norge, og mange imponerende prosjekter og artikler, må vi være ærlige og innse at utviklingen av KI ikke skjer i norsk akademia. Faktisk skjer den i liten grad i akademia. Slik har det vært lenge, men i løpet av det siste året har avstanden bare blitt større.

Årlig tar Stanford Institute for Human-Centred AI temperaturen på KI-utviklingen og -forskningen i sin Artificial Intelligence Index-rapport, kjent som HAI-rapporten. I den nyeste undersøkelsen, som kom i april 2026, viser de at 88 prosent av de mest sentrale KI-modellene de siste året, språkmodellene inkludert, kom fra industrien, ikke fra akademia. Dersom vi ser tilbake på det siste tiåret, kom 70 fra industrien. Her er det ikke overraskende at USA fortsatt bidrar med flest toppmodeller. Kina, derimot, henter inn, mens Europa ligger langt bak. 

Utviklingen gjelder ikke bare språkmodeller som ChatGPT og Claude, men også KI-forskning i bred forstand. Betydningen av en forskningsartikkel modnes over tid. Først etter en stund blir det tydelig hvor stort avtrykk arbeidet setter. Ser vi på de 100 mest siterte KI-artiklene fra 2024, det som med tyngde kan kalles den mest innflytelsesrike forskningen, deler Google førsteplassen med sju artikler sammen med Stanford. Like bak følger Microsoft med fem, side om side med flere sterke kinesiske universiteter.

Utviklingen markerer en merkbar forbedring for dem som ønsker at akademia, ikke teknologigiganter, skal sette retning for forskningsskrivingen. Bildet så annerledes ut i 2022. Da sto Google alene bak 20 av de 100 mest siterte artiklene og Microsoft fulgte med 9.

Likevel, KI-forskningen drives først og fremst fram av de store teknologiselskapene,  deretter av kinesiske universiteter. De eneste amerikanske universitetene på listen er Stanford og MIT. Europa er ikke engang representert på listen.

Stolpediagram over antall høyt siterte AI‑publikasjoner per organisasjon 2021–2024.
Figuren er hentet fra HAI-rapporten 2026, side 55.

Den samme trenden skjer ikke bare i artikler, men også i patenter. Europa står i 2024 (som er det siste året vi har tall fra) for 2,95 prosent av KI-patentene. Kina står for rett i overkant av 74 prosent, mens USA står for rett over 12.

Konklusjonen vi må trekke er at kunnskapsutviklingen rundt kunstig intelligens i all hovedsak skjer andre steder enn i Norge og Europa. Til tross for at vi er landet som bruker kunstig intelligens mest, er vi på ingen måte med på å styre utviklingen. Vi løper etter. Vi er brukere, og stadig oftere brukere på andres premisser.

Det har selvsagt stor betydning for beredskapen når vi blir stadig mer avhengige av teknologi utviklet av andre, men konsekvensene strekker seg langt utover det.

Hva gjør vi dersom det oppstår en global konflikt eller dersom USA innfører tekniske restriksjoner som rammer Norge?

Når verktøyene stadig oftere skriver for oss, foreslår oppgaver til studentene og sensurerer eksamener, bærer de også med seg verdier, vaner og faglige forestillinger fra miljøene de er skapt i.

Amerikansk akademia er velkjent for å være sterkere preget av konkurranse og prestisje, mens norsk akademia i større grad hviler på flatere hierarkier, sterkere fellesskap og større faglig frihet.

Uten at vi nødvendigvis merker det, kan vi derfor, jo oftere vi outsourcer arbeidet til språkmodellene, også trekke amerikansk akademisk kultur inn i Norge. Mer konkurranse og målbare ferdigheter trenger i seg selv ikke være negative, men det blir en utfordring dersom språkmodellene dytter oss i den retningen uten at vi selv har valgt det.

Stanford-universitetet ligger på topp når det gjelder mest siterte KI-artikler, og tar årlig temperaturen på KI-utviklingen og -forskningen i HAI-rapporten.

KI-milliarden

Det er selvsagt ikke helt mørkt for norsk KI-utvikling. Vi har allerede nevnt Nasjonalbibliotekets satsing på språkmodeller. Enda mer kjent er regjeringens «KI-milliard», som ble delt ut i fjor. 

Det er et tydelig tegn på at regjeringen ser behovet for nasjonal forskningskapasitet på KI. 122 skisser ble til 50 søknader, som ble til seks sentre. Det ble delt ut én milliard kroner, i realiteten nesten 1,2 milliarder, fordelt på seks strategiske satsinger som skal vare i fem år. Læring, tillit, kreativitet, robotikk og etikk er blant de sentrale temaene.

Det er selvsagt mye penger. Om lag 40 millioner per senter årlig er en betydelig satsing i norsk sammenheng. Igjen er det ikke til å stikke under stol at sammenlignet med de virkelig store investeringene, for eksempel i de store teknologiselskapene, er dette likevel småpenger.

Det er talende at Nvidia, som leverer datachiper og regnekraft, i fjor ble verdsatt til 43 billioner kroner (43.000 milliarder), som er rett i overkant av Indias BNP. Nvidia er på papiret, vel å merke seg, verdt mer enn India. Mye av disse pengene kommer fra OpenAI, Google og Microsoft som trenger regnekraft for å trene opp sine modeller.

Vi skal være varsomme med å lese for mye ut av pengeverdiene i seg selv, men de inngår i et større mønster som det siste året er blitt enda klarere. For det første satses det enorme summer på forskning og utvikling av kunstig intelligens, og nesten all satsing ligger utenfor det tradisjonelle akademia. For det andre er det slik at Norge og Europa, til tross for flere gode forsøk, først og fremst prøver å følge etter.

Men selv om Norge er lite sammenlignet med de største aktørene, gjør ikke det satsingen uviktig. Vi kan fortsatt bygge kompetanse, infrastruktur, anvendelser, dataforvaltning og fagmiljøer som gjør oss mindre avhengige av andres teknologi og prioriteringer. 

Slik kan vi skaffe oss større handlingsrom, selv om vi ikke setter retningen.

For det er nettopp det som er realiteten. Vi driver ikke utviklingen. Vi prøver å holde tritt med den, og det er mange utfordringer i akademia som vi selv ikke kan løse, men hvor vi i stadig større grad er avhengige av de store teknologifirmaene.

Statsminister Jonas Gahr Støre på vei inn på Universitetet i Oslo for å offentliggjøre hvem som får KI-milliarden i juni 2025. Til venstre er Gunnar Bovim, styreleder i Forskningsrådet, og til høyre forsknings- og høyere utdanningsminister Sigrun Aasland.

Veiskille med Malthe-Sørenssen-utvalget 

Som et svar på mange av utfordringene kunstig intelligens reiser i norsk akademia, har regjeringen oppnevnt utvalget om kunstig intelligens i høyere utdanning, ledet av Anders Malthe Sørenssen, med mandat til å levere en NOU innen 1. oktober 2026. 

Utvalget gjør et viktig arbeid. Det første foreløpige notatet, som kom i desember 2025, handler særlig om eksamen, sensur og karakterbegrunnelser. Det er ikke en ferdig NOU, men det fungerer allerede som et tydelig styringssignal til sektoren.

Malthe Sørenssen-utvalgets foreløpige vurderinger markerer i så måte et veiskille.

 Utvalget slår fast at studenters tilgang til generativ KI under eksamen gjør det svært vanskelig å vurdere læringsutbytte. Vi kan rett og slett ikke vite hvor mye studentene har brukt språkmodeller i denne prosessen. Derfor anbefaler de økt bruk av kontrollerte eksamensformer, som skoleeksamen, og oftere kombinasjoner der ikke-kontrollerte oppgaver suppleres med en kontrollert del, for eksempel en muntlig eksamen knyttet til en skriftlig hjemmeoppgave.

De eneste oppgavene som i praksis er immune mot KI er de oppgavene der institusjonen har full kontroll, slik som ved skoleeksamen.

6. november i år kommer den første samlede vurderingen av hva KI faktisk betyr for høyere utdanning. Da skal utvalget ikke bare se på hvordan teknologien endrer eksamen, men også undervisning, studentenes arbeidsvaner og utviklingen av norsk fagspråk. De skal også peke på hva som er de største mulighetene, hva som er de største problemene og hvordan universiteter, høgskoler og myndigheter bør møte utviklingen. 

Målet er å gi sektoren et klarere kart i et landskap som fortsatt er i rask bevegelse.

Anders Malthe-Sørenssen leder KI-utvalget.

Studenter som fusker

Antallet fuskesaker har økt de siste årene. I takt med at kunstig intelligens tas i bruk av stadig flere, øker også antallet saker der KI er en del av bildet. I 2025 ble det registrert 579 fuskesaker, opp fra 517 året før, og i omtrent halvparten av sakene var KI involvert. 

Det er i seg selv ikke overraskende. Når vi vet hvor utbredt KI-bruken nå er i akademia, og samtidig hvor mange studenter som opplever retningslinjene som uklare, følger flere grensetilfeller og regelbrudd nesten som en naturlig konsekvens.

Samtidig er ikke bildet helt entydig. På eksamensfeltet mener nær 60 prosent av studentene at reglene for bruk av KI er tydelige. Samtidig betyr det også at rundt 40 prosent opplever grensene som uklare, selv på det området der reglene burde være aller klarest. Det sier noe viktig om situasjonen. Teknologien har blitt normalisert raskere enn universiteter og høgskoler har rukket å utvikle en felles praksis rundt den.

Det er lett å tenke at problemet kan løses teknisk, for eksempel med KI-deteksjonsverktøy. Så enkelt er det ikke. Malthe Sørenssen-utvalget fraråder tvert imot sterkt å bruke slike verktøy som støtte både i sensur og i behandling av fuskesaker. 

Det finnes gode grunner til det. Slike systemer kan ikke avgjøre om en tekst faktisk er jukset fram. De vurderer bare hvor sannsynlig det er at kombinasjoner av bokstaver i teksten, det som i fagspråket kalles tokens (se KI-skolen del 2 for forklaring av tokens), kan være generert av en KI-modell. Det er et svakt grunnlag for alvorlige avgjørelser. Som metode for å avdekke fusk er KI-deteksjon derfor lite pålitelig.

Når en språkmodell som ChatGPT skriver en tekst, har mange lagt merke til at den hele tiden forutsier hva som skal komme videre. Ofte omtales det som at modellen predikerer, eller litt mer folkelig sagt, gjetter, neste ord. Det er riktig, men bare delvis. I praksis lager modellen ikke bare ett forslag om gangen. For hvert steg beregner den flere mulige ord samtidig og rangerer dem etter hvor sannsynlige de er. Deretter velger den ett av ordene med høy sannsynlighet. Nettopp derfor kan samme spørsmål gi litt ulike svar fra gang til gang.

La oss ta et enkelt eksempel for å forstå hva som skjer: Hvis man spør en språkmodell hva som er det mest brukte skriveverktøyet for en student på eksamen, kan modellen begynne svaret med formuleringen «Det mest brukte skriveverktøyet er …». 

Ordet som kommer etter, kan for eksempel være «datamaskin», «penn» eller «blyant». 

Kanskje vurderer modellen «datamaskin» som mest sannsynlig, «penn» som mindre sannsynlig og «blyant» som enda mindre sannsynlig. Den velger altså ikke ord tilfeldig. Den velger blant flere muligheter, ut fra sannsynlighet.

Det er også her koblingen til KI-deteksjon og fusk kommer inn. Når et KI-deteksjonsverktøy skal vurdere om en tekst er skrevet av en språkmodell, gjør det i praksis ikke annet enn å anslå hvor sannsynlig det er at ordene og formuleringene i teksten ligner på slike valg en språkmodell selv ville ha gjort. 

Med eksempelet over vil en formulering med «datamaskin» kunne framstå som mer sannsynlig for modellen enn en formulering med «blyant». Men det betyr ikke at teksten faktisk er skrevet av KI. Det betyr bare at den ligner mer på det mønsteret verktøyet forbinder med KI-generert tekst.

Hjemmeeksamen er blitt utsatt på grunn av mulighetene for å fuske.

Dermed blir svakheten også tydelig. Slike verktøy er lette å omgå. Det kan være nok å endre noen formuleringer, legge inn små skrivefeil, bruke uvanlige ord eller bryte opp språkmønsteret.

Man kan også be en språkmodell skrive på en måte som er vanskeligere å oppdage, og til og med justere hvor stor variasjon det skal være i ordvalgene, det som i språkmodellverdenen kalles temperatur. Fagtermene er ikke det viktige her. Det sentrale er at risikoen for falske negative treff blir svært høy. En tekst kan være skrevet med KI uten at deteksjonsverktøyet fanger det opp.

Samtidig er problemet minst like stort den andre veien. Risikoen for falske positive treff er også høy. En student kan helt på egen hånd skrive med ord, vendinger eller mønstre som språkmodeller ofte bruker, slik som «æra» eller mye bruk av tankestrek, og dermed bli feilaktig fanget opp av en KI-detektor, selv om verken ChatGPT, Claude eller Copilot har vært i nærheten av teksten. 

Med andre ord kan verktøyene både overse faktisk KI-bruk og mistenkeliggjøre tekster som er helt og fullt menneskeskrevne.

Forskere fusker også

Det er selvsagt ikke bare studenter som fusker med KI. I forskningen viser det seg oftere som forskningsuredelighet og tvilsom forskningspraksis enn som en formell fuskesak. Når KI nå kan produsere plausible tekster på få minutter, er forskningen minst like sårbar. 

I et blindet eksperiment med medisinske sammendrag skrevet av ChatGPT klarte menneskelige vurdere bare å identifisere 68 prosent som KI-skapte, mens 32 prosent passerte som tilsynelatende ekte forskning. Samtidig ble 14 prosent av de ekte sammendragene feilaktig mistenkt for å være KI genererte. 

Studien ble gjennomført allerede i 2023. I dag vil modellene trolig skrivet langt mer overbevisende tekster. Muligheten for å bruke ChatGPT og andre språkmodeller til å skrive store deler av forskningsartikler er derfor høyst reell, og mye tyder på at det allerede skjer i stor skala, om vi skal dømme etter tekstene i PubMed.

Faktisk har hundrevis av ord økt brått i bruk etter at ChatGPT og lignende språkmodeller ble tilgjengelige. En studie antyder at minst 13 prosent, og kanskje så mye som 40 prosent, av alle sammendrag (abstrakter) i PubMed i 2024 er bearbeidet med språkmodeller, særlig når forfatterne kommer fra land der engelsk ikke er førstespråk.

Hvordan dette ser ut i Norge, vet vi lite om. Likevel er det vanskelig å tro at norske akademikere bruker språkmodeller vesentlig mindre enn forskere i andre land til å skrive tekster. På de fleste andre målinger ligger Norge høyt i bruk av verktøyene. Og selv om studien bygger på data fra PubMed, er det dessuten lite som tyder på at situasjonen er grunnleggende annerledes i andre fagfelt. 

Fusk med språkmodeller og kunstig intelligens er altså et voksende problem, men så langt finnes det ingen teknisk løsning som på en pålitelig måte kan avgjøre saken.

Illustrasjonstegning forsker,
Hundrevis av ord økt brått i bruk etter at ChatGPT og lignende språkmodeller ble tilgjengelige.

Teknologien tok større steg

De store endringene i KI-verdenen handler uansett ikke først og fremst om utvalg, penger som drysses over norsk forskning, eller muligheten til å oppdage juks. Den viktigste forskjellen fra da de første artiklene i Khronos KI-skole ble skrevet, er at selve modellene er blitt langt bedre. 

Mange av problemene som preget debatten for ett år siden, er ikke borte, men de er blitt mindre dominerende. Et godt eksempel er hallusinasjoner, altså at modellene finner på fakta (Les KI-skolens del 5 om KI-hallusinasjoner)

Språkmodellene hallusinerer fortsatt, men de gjør det sjeldnere enn før. I OpenAIs egen PersonQA-evaluering, som er laget nettopp for å lokke fram hallusinasjoner, hallusinerer GPT-5-modellene i 9,6 prosent av tilfellene, mot 12,9 prosent for fjorårets GPT-4-modeller. 

Det er verdt å merke seg at dette ikke måler vanlig hverdagsbruk, men situasjoner der modellen presses i retning av feil. 

Likevel er 9,6 prosent fortsatt et høyt tall. Et mer realistisk bilde får vi i Hallucination Evaluation Model, (HEM), Leaderboard. Der ligger GPT-5 og Google Gemini-modeller begge på rundt 7 prosent. Modellene er blitt langt bedre det siste året, men problemet er langt fra borte.

Alle de store språkmodellene har det siste året kommet i nye versjoner. OpenAI gikk fra ChatGPT 4.5 våren 2025 til å starte GPT 5-serien i august, og per april 2026 er de kommet til GPT 5.4. 

Anthropic har to sentrale KI modeller, Claude Sonnet, som er rask og egnet for enklere, dagligdagse oppgaver, og Claude Monet, som er laget for de tyngre oppgavene. For bare et år siden var siste versjon 3.7. I dag er de oppe i 4.6. 

Google har på sin side gått fra Gemini 2.5 til Gemini 3 og Gemini 3.1 Pro. 

Det er med andre ord ingen overdrivelse å si at de store språkmodellene har utviklet seg i et rasende tempo.

Humanity’s Last Exam, et oppgavesett som speiler krevende universitetsoppgaver på tvers av fag, fra matematikk og fysikk til samfunnsfag, lå Gemini 2.5 Pro Experimental fra mars 2025 på topp med 18,16 prosent av svarene riktig. På den offisielle poengtavla i dag er toppscoren 44,3, oppnådd av GPT 5.4. Gemini 3 Pro ligger på 37,5.

Selv med de nyeste og mest krevende testene presses altså poengsummen oppover i et tempo som for bare ett år siden ville vært vanskelig å forestille seg. 

EnigmaEval er et annet mål på disse språkmodellene, særlig utviklet for kreativ og flertrinns resonnering, slik som kryssord og IQ-oppgaver. I fjor lå toppscoren på 13 poeng, mens den i år er på nesten 24. Gemini ligger på nesten 20. Vi vet ikke hvor godt mennesker presterer på dette.

Claude Sonnet ble lansert som den første modellen i Claude-familien med såkalt hybridresonnering (hybrid reasoning) som betyr at den forener språkmodeller med mer klassisk KI. For brukerne ga det en modell som både kan svare raskt og bruke mer tid når oppgaven krever det. I motsetning til tidligere modeller slapp brukeren selv å avgjøre om oppgaven krevde rask respons eller mer grundig resonnering. Nå er hybrid reasoning blitt en del av alle de store språkmodellene.

Anthropic var også den første som for alvor fikk fart på koding. Språkmodellene kunne riktignok kode også før, men med Claude Code, som kom våren 2025, tok utviklingen et klart sprang, og alle store språkmodeller har fulgt etter. Plutselig kunne språkmodeller ikke bare skrive tekst, men også lese kodebaser, kjøre kommandoer og samhandle med skrivebordsmiljøer.

Dario Amodei og Mike Krieger i fireside-samtale på scene med Anthropic-logo bak seg.
Administrerende direktør i Anthropic, Dario Amodei (til høyre), og daværende produktsjef Mike Krieger i samtale etter å¨ ha lansert Claude 4 med Opus 4 og Sonnet 4 i San Francisco i mai 2025.

Poenget er ikke disse målingene i seg selv. Poenget er at i sammenligningene som fortsatt har reell signalverdi, er spranget fra 2025 til 2026 stort, og ingenting tyder på at utviklingen stopper her. En praktisk følge av dette er at språkmodeller nå fungerer stadig bedre som verktøy i programmering og matematikk.

Et konkret eksempel på dette er historien til Ernest Ryu og Uijeong Jang ved UCLA. Høsten 2025 brukte de GPT-5 i arbeidet med et rundt 40 år gammelt, åpent problem i optimaliseringsteori, knyttet til Nesterovs akselererte gradientmetode fra 1983. 

I forsøket på å løse problemet spilte språkmodellen en sentral rolle. Den leverte ikke et ferdig og korrekt bevis på første forsøk. Tvert imot var prosessen rotete, krevende og full av blindspor, slik forskning ofte er. Om lag 80 prosent av forslagene modellen kom med holdt ikke mål. 

Arbeidet til Ryu og Jang ble derfor å luke ut feil, fange opp det som virket lovende og så presse modellen videre i de mest fruktbare sporene.

KI fungerte med andre ord ikke som en autonom matematiker, men som en ekstremt rask generator av ideer, mellomregninger og alternative angrepsmåter. Vendepunktet kom da modellen foreslo en ny måte å omstrukturere ligningene bak Nesterovs metode på. Forslaget var ikke riktig i den formen det kom, men Ryu så at den underliggende strukturen kunne være viktig. Han gjorde ideen presis selv og brukte deretter modellen til målrettede spørsmål for å teste om bevisløpet kunne holde.

Resultatet ble artikkelen Point Convergence of Nesterov’s Accelerated Gradient Method: An AI Assisted Proof, der Ryu og Jang selv skriver tydelig at beviset var tungt assistert av ChatGPT. 

Saken viser ikke at språkmodeller erstatter forskere. Den viser noe mer interessant, at de i økende grad kan inngå som reelle arbeidsverktøy i forskning, også i fag som lenge har vært regnet som blant de mest krevende.

Agentenes ankomst

En annen stor teknisk endring, og kanskje den viktigste i praksis, er overgangen fra samtalepartner til oppgaveløser. En agent er mer enn en språkmodell. Teknologien kan da ikke bare svare på spørsmål, men også utføre handlinger som å åpne Outlook, sende e-post på dine vegne eller fylle ut reiseregninger.

Det mest kjente eksempelet er OpenClaw. Her kan brukeren i praksis gi teknologien kontroll over datamaskinen. De færreste vil nok ønske å overlate full kontroll til en agent, men for akademia markerer dette likevel et vendepunkt. 

En agent kan ikke bare svare på spørsmål om forskningsdesign, men også hente inn kilder, sortere materiale, oppdatere tabeller, programmere eksperimenter og kjøre dem, lage et første utkast til en presentasjon og følge opp oppgaver over tid. Gevinsten er åpenbar, både i forskning, undervisning og administrasjon.

Agenter kan i praksis forstås som usedvanlig pliktoppfyllende og arbeidsomme assistenter. De klager ikke, de glemmer ikke, og de er tilgjengelige med et tastetrykk. Det er ikke vanskelig å se appellen i et slikt verktøy.

Skal én endring for alvor flytte forskningsfronten i årene som kommer, er mitt tips at det nettopp er agenter. Derfor skal vi også vie et eget kapittel i KI-skolen til dem.

Stor bekymring for KI i akademia

Det siste året har det, ikke overraskende, vokst fram en dypere uro i deler av akademia, og den handler om langt mer enn juks, eksamen og innføringen av agenter. Et ferskt opprop i Khrono er talende. 313 akademikere ber om en kritisk og kunnskapsbasert debatt om KI i offentlig sektor, akademia inkludert, og krever at rektorene involverer relevante forskere før beslutninger tas, at innføringen ikke skjer ovenfra og ned, og at universitetene oppretter egne komiteer med kritiske fagstemmer.

Når de løfter fram etikk, klima, sikkerhet, suverenitet, demokrati, autonomi og svekket kompetanse, er det i praksis en protest mot at KI behandles som noe nærmest uunngåelig før sektoren har rukket å avklare hva teknologien skal brukes til, hvem som skal styre innføringen, og hvilke akademiske verdier som må vernes.

Usikkerheten rundt, og ikke minst konsekvensene av ny teknologi, blir sjelden tydelige før teknologien er tatt i bruk. Når den først er vevd inn i arbeidsprosessene våre, er handlingsrommet langt mindre.

I teknologidebatten er dette kjent som Collingridge dilemma. Ingen kan forutsi teknologiens innflytelse med presisjon, verken i akademia eller andre steder, og innføringen kan derfor ha utilsiktede konsekvenser.

Derfor har opproperne helt rett i at vi bør trå varsomt med innføring av KI.

Teknologien bør ikke slippes inn uten motstand og motforestillinger. Men jeg har ikke hørt noen argumentere for at vi i akademia skal ta i bruk KI bare for å bruke KI, og i hvert fall ikke at akademia ukritisk skal overlate premissene til teknologigigantene uten å stille krav.

Det var Knut Ørke (t.v.), Maria Danielsen og Holger Pötzsch ved UiT Norges arktiske universitet som startet det landsomfattende oppropet om ny retning i KI-debatten.

Denne kritiske fronten mot KI er ikke bare et norsk fenomen. Internasjonalt ser vi den samme motreaksjonen mot ukritisk, ovenfra og ned, og leverandørdrevet innføring av KI. 

I Nederland har et åpent brev mot «uncritical adoption of AI» i akademia samlet over 1700 underskrifter og argumentert for at teknologien undergraver pedagogiske verdier, vitenskapelig integritet og kritisk tenkning.

I USA har American Association of University Professors (AAUP) advart om at ukritisk innføring av KI truer akademiske profesjoner gjennom arbeidsintensivering og mulig jobbpress. 

Det akademikerne etterspør, både i Norge og internasjonalt, er derfor ikke først og fremst et forbud, men rettmessig en demokratisk og forskningsbasert styring av en teknologi som altfor ofte blir presentert som uunngåelig.

Veien videre for KI-skolen

Veien videre for KI-skolen handler ikke først og fremst om å avgjøre om kunstig intelligens er god eller dårlig for akademia, eller om å lære seg stadig nye knep for å instruere språkmodeller. Det har vi allerede snakket mye om. 

Utfordringen framover, både for studenter og ansatte ved norske høgskoler og universiteter, er å bruke teknologien på måter som styrker læring og forskning, uten at vi samtidig svekker kontrollen, den kritiske sansen eller den selvstendige tenkningen.

Derfor skal vi i de neste ukene presentere helt konkrete verktøy og metoder for hvordan ulike KI-modeller kan brukes, blant annet som skriveverktøy, som læringsverktøy og i litteratursøk og analyse. 

Vi skal også utforske hvordan agenter kan fungere som assistenter i koding, eksperimenter og annet akademisk arbeid. 

Hvis året som gikk var året da KI ble hverdag i norsk akademia, blir året som kommer forhåpentligvis året da akademikere får superkrefter med KI.

Powered by Labrador CMS