KI-skolen, del 8

Bli kjent med skrive­verktøyene som er spesielt tilpasset forskere

Lær å bruke skriveverktøy som er gjennomsyret av kunstig intelligens (KI) og tilpasset akademiske formål. De kan brukes til mer enn du tror.

Illustrasjon av en kontorarbeider ved skrivebord som samarbeider med en robot foran dataskjermer.
Illustrasjon laget av ChatGPT med instruksen: Lag en illustrasjon med en retro følelse der forskeren møter maskinen ved skrivebordet, og får hjelp til å skrive akademiske artikler med kunstig intelligens.
Publisert

Khronos KI-skole med professor Morten Goodwin er i gang igjen. De seks første kapitlene ble publisert i starten av 2025. Del 7, som er første artikkel i 2026-utgaven av skolen, ble publisert 21. april 2026 og hadde overskriften Året da KI ble hverdag i norsk akademia. Her er del 8.

KI-skolen del 8: En av de mest prestisjetunge konferansene innen kunstig intelligens heter International Conference on Learning Representations (ICLR). Der presenterer verdens fremste KI-forskere det mest banebrytende innen feltet, fra språkmodeller og kunstige nevrale nettverk til medisinske anvendelser av kunstig intelligens og ny metodikk.

ICLR i 2025 skilte én forfatter seg ut fra alle de andre.

FAKTA

Khronos KI-skole

  • Professor Morten Goodwin har på oppdrag for Khrono laget en KI-skole i form av en artikkelserie.
  • Se hele KI-skolen — alle artiklene i serien — her.
  • De seks første artiklene i serien ble skrevet og publisert mellom januar og mars 2025.
  • I april-mai 2026 publiserer vi fem nye artikler.
  • Målet med KI-skolen er å vise hvordan kunstig intelligens kan forenkle og fornye den akademiske hverdagen.
  • Målgruppen er undervisere, forskere og administrativt ansatte ved universiteter og høgskoler.
  • Vi har valgt å ikke oppdatere de første seks artiklene i serien, som ble publisert vinteren 2025, selv om mye har skjedd på KI-fronten siden den gang. Jevnt over har svarene fra KI-modellene, spesielt språkmodellene som ChatGPT, blitt veldig mye bedre siden den gang. For eksempel er mengden hallusinasjoner, hvor KI-modellen feilaktig kommer med oppspinn, drastisk redusert. Det samme gjelder også skjevheter. Artiklene gir likevel en god innføring i de ulike temaene de tar opp og anbefales fortsatt for dem som vil komme i gang med KI.

Artikkelen «Compositional Regularization: Unexpected Obstacles in Enhancing Neural Network Generalization» var faglig tung, inneholdt gode eksperimenter, var strukturert etter vitenskapelig standard og rikt referert. Den var sendt inn til fagfellevurdering ved siden av mange andre bidrag, fikk topp tilbakemeldinger, 6,33 av 10 mulige poeng, og var godt innenfor det som kunne gi aksept og publisering.

Men det artikkelen ikke oppga, var at den verken var skrevet av en professor, en doktorgradsstipendiat eller et forskerteam. Den var faktisk ikke skrevet av noe menneske i det hele tatt. Den var produsert ene og alene av kunstig intelligens. Og da mener jeg ikke bare skrevet: Alt fra å komme opp med hypoteser til å programmere og gjennomføre eksperimentene var gjort av KI.

En gruppe kanadiske forskere, ikke kunstige, men mennesker, hadde matet en KI-modell med tidligere forskningsartikler og bedt den skrive et nytt bidrag til fagfeltet. Resultatet ble en fullverdig forskningsartikkel, godt nok skrevet til å passere et av verdens strengeste vitenskapelige nåløyne.

KI-modellen hadde valgt metode, gjennomført eksperimentene, analysert dataene, hentet fram referanser, sammenlignet resultater, evaluert egne hypoteser, trukket konklusjoner og satt det hele sammen til en vitenskapelig artikkel. Det var ikke bare snakk om korrekt gjengivelse av fakta eller språkhallusinering.

Det eneste menneskeforskerne gjorde, var å instruere KI-en, laste opp den produserte pdf-en og svare på e-post, altså alt det administrative.

Dette var et eksperiment innen informatikk, hvor eksperimenter ofte kan gjennomføres ved at forskerne programmerer en modell, kjører den og evaluerer resultatene, slik KI-algoritmen gjorde her.

På andre fagfelt, som for eksempel medisin, er man avhengig av å evaluere pasienter, og pasienter kan naturlig nok ikke automatiseres på samme måte. Det samme gjelder studenter i pedagogisk forskning, brukere i forskning på teknologi og brukeropplevelse, eller deltakere i psykologi og samfunnsvitenskap, og en rekke andre fagfelt. Det er med andre ord forskjell mellom fagfeltene på hvor mye som kan automatiseres. Det er uansett liten tvil om at det for alle fagfelt er enormt potensial for automatisering med KI, fra eksperimentoppsett til å skrive artikler.

Den KI-produserte artikkelen på ICLR ble skrevet i fullt samarbeid med arrangørene av konferansen. Det var kjent at flere artikler ville komme som var skrevet av kunstig intelligens. Alle som organiserte konferansen var godt kjent med dette, men det var ikke de som sto for fagfellevurderingen. Det hele var som et eksperiment bygget for å finne ut hvor god KI har blitt på forskning.

Etter at artikkelen ble godkjent, og idet den var klar til å legges ut på nettsiden som en del av konferansepublikasjonene, ble artikkelen trukket. Til tross for at den gikk gjennom alle nåløynene for å bli akseptert, var den ikke en offisiell del av ICLR-konferansen. Arrangørene ville ikke ha rene KI-skrevne artikler publisert, samme hvor gode de var.

I dag kan artikkelen lastes ned på det åpne nettstedet arxiv.org. Poenget de ville få fram, var tydelig:

Språkmodellene kan mer enn å svare på spørsmål og gjøre språkvask. Brukt riktig kan de produsere ny kunnskap, akkurat slik vi forskere med menneskelig intelligens klarer. 

Det store spørsmålet vi bør stille oss er dermed: Hva betyr dette for oss forskere?

Blir forskere overflødige?

Sam Altman, sjefen i OpenAI, altså selskapet bak ChatGPT, mener at vi allerede i løpet av dette året, 2026, vil få en «AI research intern», og et «system capable of autonomously delivering on larger research projects».

Med andre ord, når store deler av forskerens arbeid kan automatiseres, og kunstig intelligens i økende grad selv kan produsere forskning, står forskeryrket foran en gjennomgripende forvandling i løpet av de neste to årene.

Sam Altman taler ved talerstol under AI Summit i New Delhi med lysende skjerm bak seg.
Sam Altman, toppsjefen i OpenAI.

Altman er nokså alene om å spå slike drastiske endringer, og utsagnet må også ses i lys av hans mange markedsføringsgrep. Når han kommer med slike kontroversielle påstander, signaliserer han samtidig at OpenAI-teknologien er så god at forskere i praksis vil bli overflødige, og dermed også implisitt at investorer bør satse på ham.

Ingen kan imidlertid med sikkerhet si hvordan forskeryrket vil utvikle seg fremover, og slik jeg ser det, er det helt urealistisk at forskere fullt ut forsvinner i løpet av de neste årene.

Men i KI-miljøene er det en bred enighet om at flere og flere av oppgavene forskere utfører, i økende grad vil kunne automatiseres, fra å skrive og oppsummere litteratur til å gjennomføre eksperimenter, fra å analysere data til å formulere hypoteser og foreslå nye forskningsretninger.

Verktøy gjennomsyret av kunstig intelligens

Vi skal på ingen måte automatisere hele forskeryrket i denne delen av KI-skolen, men snarere se på skriveverktøy. Det å skrive en vitenskapelig artikkel, en masteroppgave eller en ph.d.-avhandling er noe vi forskere bruker mye tid på. Det er slik vi dokumenterer ny kunnskap, og vi måles i stor grad på antall artikler og hvor de er publisert. Skriving er viktig.

Vi skal se på skriveverktøy som er gjennomsyret av kunstig intelligens. Prism fra OpenAI, der du har en språkmodell integrert i selve skriveverktøyet, får mest plass.

Vi skal også titte så vidt på Refine, som kan rette logiske feil i en artikkel, og Paperpal som er et litt mer lavterskel skriveverktøy som fungerer på samme måte som Prism, men som er langt enklere bygget opp og minner mer om andre felles skriveverktøy som Google Docs.

Det finnes også en lang rekke andre verktøy som ligner, som Overleaf med Writefull eller Google Docs med Gemini, Jenni.ai. Disse verktøyene blir stadig bedre, og de kunne alle fått plass i KI-skolen. Vi velger likevel å løfte fram et lite utvalg, valgt for å gi en tydelig pekepinn både på mulighetene i dag og utviklingen videre.

Prism har ChatGPT innebygd

Prism er et akademisk skriveverktøy som har fått mye oppmerksomhet. Det leveres av OpenAI, og alle med ChatGPT-konto har også tilgang til Prism. Verktøyet ligner en del på et annet godt etablert skriveverktøy, Overleaf, som sikkert mange er kjent med. 

Dersom man ikke er kjent med Overleaf eller Prism, kan man tenke på verktøyet som en litt avansert, og kanskje litt mindre brukervennlig, variant av delingsdokumenter som Google Docs. Det er altså en nettside man går til, hvor man oppretter et dokument, velger konferanse- eller tidsskriftmal og kan dele dokumentet med andre.

Prism bruker, på samme måte som Overleaf, et veldig mye brukt kodespråk som heter LaTeX, som er godt kjent blant mange akademikere, spesielt innen realfag. I utgangspunktet er det en liten terskel å lære seg LaTeX, men Prism gjør det aller meste av kodingen for deg, slik at du slipper.

Det som skiller Prism fra for eksempel Overleaf, er at språkmodellen til ChatGPT er innebygget i verktøyet. 

Skal man bruke et annet verktøy enn Prism, slik som Word, og trenger hjelp av ChatGPT, må man kopiere teksten man trenger hjelp til ut av Word, inn i ChatGPT, spørre om hjelp, for så å kopiere svaret fra ChatGPT tilbake til Word igjen. 

Clippy-stifter med store øyne foran en gul linjert blokk
Noen som husker Clippy? Som mange opplevde bare var i veien ...

I Prism er dette integrert. Du markerer teksten du trenger hjelp til, og ber om hjelp, og den oppdaterer direkte i teksten.

Det hele kan minne litt om bindersen Clippy som var i Word på 1990-tallet, eller CoPilot i Word i dag. I motsetning til både Clippy og CoPilot, som kan være mer i veien enn til nytte, fungerer ChatGPT i Prism godt. Og løsningen er spesifikt bygget for å hjelpe med akademiske oppgaver.

Kom i gang med Prism

Du starter Prism ved å gå til verktøyets nettside og logge inn med OpenAI-brukernavn og passord. I Prism får du LaTeX-koden på venstresiden og tilhørende pdf på høyresiden, noe som ligner på hvordan det ofte gjøres i andre godt kjente LaTeX-verktøy, som Overleaf eller MiKTeX

Det du skriver som LaTeX-kode på venstresiden, eller som du får KI-modellen til Prism til å lage for deg, oppdateres automatisk i pdf-en på høyresiden. Slik kan du hele tiden se hvordan teksten, tabellene og formlene du skriver faktisk blir seende ut, og når du er fornøyd, kan du laste ned pdf-dokumentet og for eksempel sende det inn som et konferansebidrag.

Vi kan starte med en liten setning, for eksempel på engelsk, som vi trenger hjelp til å kvalitetssikre språklig: «The AI school is a set of web sites from Khrono meant to be help you become profissient at using AI.» (Skrivefeilene er med hensikt.)

Så kan vi få hjelp av språkmodellen ChatGPT, men vi trenger altså ikke klippe og lime inn i ChatGPT. Vi markerer bare teksten og velger «Proof read».

Skjermbilde av Prism som markerer tekst og tilbyr KI-basert korrektur i et dokument.

 
Da slår ChatGPT inn og foreslår språklige endringer i teksten. I dette tilfellet retter den noen skrivefeil, «professient» blir til «proficient», og ordet «be» forsvinner. Løsningen som kommer, er: «The AI school is a set of websites from Khrono meant to help you become proficient at using AI.»

Skjermbilde som viser en tekstlinje før og etter automatisk omskriving.

 
Du kan se nøyaktig hvilke endringer som gjøres, og du kan velge å beholde eller forkaste.

Og poenget er at ChatGPT, eller strengt tatt språkmodellen bak ChatGPT, er integrert som en del av verktøyet.

Trenger du hjelp til noe som KI kan hjelpe med, markerer du teksten du trenger hjelp med, klikker «Command + K» på Mac eller «Ctrl + K» på PC. Da kan du skrive en instruks (prompt) på samme måte som man kan i ChatGPT eller hvilken som helst av språkmodellene. 

For eksempel kan vi be den skrive et avsnitt om hvorfor kunstig intelligens er viktig: «Write a short paragraph of why it is important for researchers to learn AI tools».

Som vi skulle forvente, skriver den et avsnitt:

Skjermbilde med lys tekst på svart bakgrunn om forskere og kunstig intelligens

 
Vi kan markere teksten og komme med en ny instruks, for eksempel: «Oversett teksten til norsk».

Prism viser nå teksten den fjerner, i dette tilfelle den engelske teksten, og teksten den legger til, som er norsk.

Skjermbilde av tekst i et skriveverktøy der engelske og norske avsnitt er markert i farger.

 
Og dette er egentlig alt man trenger for å kunne komme i gang med Prism. 

Faktasjekk

Men Prism kan brukes til så mye mer. For eksempel faktasjekk. 

Vi kan be den ta for seg den kontroversielle påstanden «Det er konsensus blant alle forskere som jobber med kunstig intelligens at forskeryrket vil forsvinne innen fem år.» Denne påstanden vil nok de fleste, både KI-forskere og andre, være uenige i, men vi kan faktasjekke likevel.

Igjen markerer vi teksten og ber Prism om hjelp med følgende instruks: «Faktasjekk denne påstanden.»

Prism svarer:

Påstanden stemmer ikke. Jeg finner ingen kilder som viser en konsensus blant AI‑forskere om at “forskere vil forsvinne innen fem år”. Det som finnes av større undersøkelser peker tvert imot på delte vurderinger og tidshorisonter i tiår, ikke fem år, og på at jobbeffektene er usikre og varierte. (pewresearch.org)

Hvis du vil ha en mer presis formulering, kan noe i retning av dette være mer forsvarlig:

“Det er stor uenighet blant AI‑forskere om hvor raskt og hvor mye AI vil endre forskeryrket; effektene beskrives ofte som gradvise og usikre over lengre tidshorisonter.” (pewresearch.org)

Vil du at jeg skal oppdatere setningen i main.tex med en mer nøktern versjon?

 
Jeg svarer: «Ja, oppdater med en mer korrekt påstand.» Nå får jeg følgende svar:

Det er stor uenighet blant KI-forskere om hvor raskt og hvor mye KI vil endre forskeryrket, og mange beskriver utviklingen som gradvis og usikker over lengre tidshorisonter.

 
Dette er en mye mer balansert påstand enn den vi fikk først, og mye mer riktig. Men det hadde vært fint med en kilde som støtter denne påstanden. Igjen markerer vi teksten, nå den nye påstanden, og ber Prism om hjelp.

Vi spør: 

«Finn en kilde som underbygger denne påstanden, og siter den.»

Merk at det er flere utfordringer med å bruke språkmodeller til faktasjekk, se KI-skolens del 5 hvor vi snakker utdypende om både hallusinasjoner og falske referanser.

Prism gjør det den blir bedt om og legger til en undersøkelse:

Markert grønn tekst i en kodeeditor med mørk bakgrunn. Prism viser akademisk tekst som faktasjekkes og redigeres direkte i manus.

 
Det er selvsagt ikke god forskning å først komme med en påstand først, for så å lete etter en kilde som støtter den. Eksempelet er snarere for å vise mulighetene. 

La oss heller gjøre det litt mer ordentlig. Vi ber Prism om hjelp:

«Let i litteraturen etter undersøkelser blant kunstig intelligens-forskere som gir oversikt over forskeryrket de nærmeste årene. Se spesielt etter hva og i hvilken grad yrket blir automatisert. Skriv avsnitt med referanse til litteraturen.»

Nå får vi et utfyllende svar. Her er starten på svaret:

Teksten i litteraturen om undersøkelser blant kunstig intelligens-forskere peker samlet mot at forskeryrket ikke forventes å bli helautomatisert i løpet av de nærmeste årene, men at flere deloppgaver forventes å bli betydelig automatisert. I den største nyere ekspertundersøkelsen, "2023 Expert Survey on Progress in AI'', der 2 778 forskere med nylige publikasjoner i ledende KI-venueer deltok, ble det anslått 50% sannsynlighet for at maskiner kan utføre alle menneskelige oppgaver bedre og billigere enn mennesker innen 2047, men 50 % sannsynlighet for full automation of labor først i 2116 [2]. Grace et al. understreker samtidig at det store gapet mellom alle oppgaver og alle yrker kan være påvirket av spørsmålsformuleringen, slik at tallene bør leses som grove indikatorer heller enn som presise kalenderprognoser [2]. I samme studie ble "AI researcher'' brukt som et eksplisitt yrkeseksempel, og forfatterne rapporterer også at kategoriene "Computer and Mathematical'' og "Life, Physical, and Social Science'' ofte ble nevnt blant de siste yrkene som ville automatiseres [2]. Dette tyder på at KI-forskere gjennomgående ser forskeryrket som relativt sent automatiserbart sammenlignet med mange andre yrker.

Samtidig tyder surveydataene på at konkrete forskningsoppgaver kan automatiseres betydelig tidligere enn hele yrket ...
[...]


La den lage tabell

Vi kan også få hjelp med de litt mer praktiske oppgavene. 

Alle som har jobbet med LaTeX, vet at bare det å lage en helt tom tabell og ikke minst å få den til å se ut akkurat slik du vil, krever en del arbeid. Her kan vi be Prism hjelpe oss med å lage en tom tabell:

«Lag en tabell på 5x5, hvor overskriften er svart med hvit bakgrunn.» 

Vi kunne naturlig nok, i stedet for å lage en tom tabell og fylle ut innholdet, få importert fra Excel eller fylle ut innholdet selv. Men nå holder det å lage en enkel tabell uten innhold.

Den blir seende slik ut:

Rutenett med kolonnene A til E og tallene 1 til 20 i fire rader

 
Jeg ber deretter om at overskriften gjøres hvit med svart bakgrunn:

Rutenettabell med kolonnene A til E og tallene 1 til 20 i fem kolonner og fire rader.

 
Vi kan øke kompleksiteten en del. Vi skriver følgende instruks:

Lag en tabell som ligner en vitenskapelig LaTeX-tabell fra en teknisk rapport, men der innholdet handler om kunstige intelligens-verktøy i stedet for geometriske beregninger.

Tabellen skal ha to hovedseksjoner i overskriften: “AI Writing Tools” og “AI Coding & Analysis Tools”.

Under AI Writing Tools skal det være fire kolonner med følgende etiketter: LLM Model, Writing Assistant, Reference Tool, Editing Tool

Under AI Coding & Analysis Tools skal det være tre kolonner med følgende etiketter:

Code Assistant,Data Analysis, Research Tool

Tabellen skal inneholde to grupper av rader:

Første gruppe:

Overskrift: General Purpose AI Tools

Verdier på raden:

ChatGPT | Grammarly | Paperpile | QuillBot | GitHub Copilot | Wolfram Alpha | Elicit

Andre gruppe:

Overskrift: Advanced / Research AI Tools

Første rad:

Claude | LanguageTool | Zotero AI | Wordtune | Codeium | DataRobot | Consensus

Andre rad:

Prism | PaperPal | Jenni | Refine | Amazon CodeWhisperer | RapidMiner | Connected Papers

Tabellen skal ha tydelige horisontale linjer mellom topp, seksjonsoverskrifter og datagrupper, og en bildetekst nederst: “Table: Example overview of AI tools for writing, coding, and research.”.

 
Resultatet blir slik:

Tabell som sammenligner AI-verktøy for skriving, koding og analyse i forskning.

 
Jeg ber nå om en litt mer fancy tabell: «Make this table very, very, very professional and cool-looking.»

Og plutselig ser tabellen slik ut: 

Bred tabell som viser ulike KI-verktøy sortert etter bruksområde og modelltype.


De av leserne som er kjent med LaTeX, vet hvor mye arbeid som skal til for å lage en slik tabell uten store problemer.

Det er selvfølgelig nyttig og fint å få slike tabeller, men vi kan også hente direkte fra artikler. Jeg laster opp fem vitenskapelige artikler og trenger et sammendrag av resultatene. 

I dette tilfelle er det artikler som presenterer ulike teknikker for å klassifisere bilder, slik som å fortelle at et bilde av en katt faktisk er en katt og ikke en hund. Hvor god en KI er til slike oppgaver, måles ofte i nøyaktighet (engelsk: accuracy). Jo høyere prosent nøyaktighet, desto oftere klarer den å klassifisere riktig.

Jeg har lyst på en tabell som sammenligner rapporterte nøyaktigheter, og jeg spør eksplisitt om «top 1 accuracy» og «top 5 accuracy», som i praksis betyr hvor nøyaktig KI-algoritmen er dersom den kun får gjette én gang, og hvor nøyaktig den er dersom den får gjette fem ganger.

Her er instruksen: 

Jeg har lastet opp fem artikler som alle handler om bildeklassifisering av imagenet. Presenter en tabell som henter ut: Artikkel, model, Top 1 accuracy og top 5 accuracy.

 
Og her er resultatet:

 

Det er verdt å merke seg at jeg, i tillegg til å hente ut nøyaktighet, altså accuracy, oppdaget at ikke alle artiklene jeg brukte, rapporterte denne målemetoden direkte. I flere av tilfellene ble nøyaktigheten i stedet oppgitt indirekte, som et estimat beregnet ved å trekke hvor ofte den gjør feil fra 100 prosent.

Detaljene her er mindre viktige. Det sentrale er at Prism både kan lage et sammendrag av resultatene fra artikler når du ber eksplisitt om det, og anslå resultatene når de ikke er oppgitt direkte i artiklene, men kan utledes fra andre mål som faktisk er rapportert.

Vi kan fortsette med å be den lage et plot som passer til disse resultatene, og får denne figuren:

Søylediagram over Top-1 og Top-5 ImageNet-nøyaktighet for fem modeller.

 
Også når vi ikke helt vet hva vi trenger, kan vi komme med en litt vag instruks: 

Lag et råkult plot som imponerer alle basert på denne dataene, noe med størrelsen på modellen versus accuracy, kuler som er mindre og større og slikt.

 
Vi får denne figuren i retur:

Punktdiagram som sammenlikner modellstørrelse i millioner parametere mot topp-1-nøyaktighet.

 
Sett inn bilder og bildetekst

Prism kan også hjelpe til med å sette inn bilder. Jeg laster opp «image32.png» og vil ha den inn i dokumentet. I LaTeX er det vanligvis en liten kodesnutt for å legge til et bilde, men dette gjør Prism for meg.

«Jeg skriver inn følgende: Sett inn figur image23.png»

Nå viser det seg at jeg feilaktig skrev image23, ikke image32, og da retter språkmodellen mine feil:

«I can convert it, but I don't see image23.png in the workspace. I only see image32.png and diagram.jpg. Which file should I use, or can you add image32.png to the project?»

Jeg svarer ja, og figuren kommer slik jeg ønsket.

Jeg ber den også skrive en passende bildetekst. Den blir fint plassert i dokumentet mitt:

Forsker står mellom historisk laboratorium og futuristisk teknologimiljø.

Vi kan også sette opp en mer avansert bildekollasj. Igjen vil de som har gjort dette med LaTeX, nærmest få hodepine ved å tenke på det.

Men nå skriver vi bare instruksen: «Lag en LaTeX-figur som viser to store hovedbilder i midten, og fire bilder ved siden av, to til venstre og to til høyre. Det skal være image32.png opp til image38.png». 

Og resultatet ser slik ut:

Flere illustrasjoner av roboter og mennesker i futuristiske klasserom og laboratorier.

Også her kan vi få litt kreativ hjelp ved å bruke denne instruksen: 

«Lag en helt annet, innovative, måte å presentere disse seks bildene på. Det skal både være stilrent, og unikt, og det skal imponere en som kjenner til LaTeX.»

Nå blir illustrasjonen slik:

Symmetrisk collage av futuristiske robotillustrasjoner på hvit bakgrunn.

 
Den løser formel-hodepinen

Noe annet som også ofte skaper hodepine, er å skrive inn matematiske formler på en ryddig og fin måte. Dette kan vi få til med en instruks, for eksempel: 

«Legg til formelen for backpropagation wn:+ = wn — lambda osv. ...»

Prism spør hvor og om den skal være inline eller display, som er de to hovedmåtene å presentere formler på i LaTeX. Jeg svarer inline og får følgende:

Nærbilde av engelsk tekst med formel for oppdatering av vekter.

Det er perfekt og akkurat det jeg ser etter. For de som er interessert, er dette en formel for å oppdatere parametere i kunstige nevrale nettverk. Poenget er på ingen måte akkurat denne formelen, men det er mer eller mindre en kopi av matematikk som finnes i nesten hver eneste lærebok om maskinlæring.

Men vi kan også be Prism om hjelp med litt mer unike formler. Når jeg nå fortsetter, bytter jeg til engelsk. Grunnen er ikke at Prism eller ChatGPT forstår engelsk bedre, men snarere at det er mye lettere for meg, som menneske, å skrive hva jeg trenger når jeg er så dypt nede i faget at jeg bruker engelske uttrykk. Jeg spør:

«Add an equation where you have a input vector followed by a matrix of learned weights, followed by a sigmoid, followed by another matrix of learned weights, followed by softmax.»

Formelen jeg får ut er slik:

Formel som viser ŷ lik softmax av W2 ganger sigma av W1x

 

Kanskje jobber du ikke med matriser eller funksjoner som sigmoid eller softmax. I så fall er det ikke så lett å følge matematikken her. Hensikten er ikke akkurat denne matematikken, men at Prism kan hjelpe deg med å formulere matematiske formler riktig, også mye mer avansert matematikk enn eksemplene her.

Få Prism til å fikse tallfeil

Tidligere så vi på kvalitetssikring og det Prism kaller «Proofread». Vi gjorde det som språkvask, men det kunne like gjerne vært for matematikk.

La oss sette opp et ganske enkelt regnestykke først. Vi ville neppe ha gjort noe så overtydelig i en akademisk artikkel, men det er en god anledning til å demonstrere mulighetene med Prism. Vi kan se på litt mer avanserte eksempler etter hvert.

Vi setter opp et regnestykke for kostnader for en akademiker som er ny i jobben:

  • Bøker 3000 NOK/ år
  • Laptop 4000 NOK
  • Abonnement 2000 NOK/ år

Først kan vi markere teksten og få Prism til å summere, ved rett og slett å skrive «Summer dette». Vi får svaret:

  • Bøker 3000 NOK/ år
  • Laptop 40000 NOK
  • Abonnement 2000 NOK/ år
  • Sum: 40000 NOK + 5000 NOK/ år

  
Deretter legger vi med vilje inn en feil. Summen på 5000 NOK/år blir feilaktig til 9000 NOK/år. Vi markerer regnestykker vårt og ber Prism kvalitetssikring («proofread») med følgende instruks: «Kvalitetssikre regnestykket mitt.»

Prism oppdager feilen og kommer med forslag til en rettelse.

Identifying incorrect sum in user selection block I found the yearly total sum is off—books and subscription should total 5000/year plus a 40000 laptop cost, but the current code shows 9000.


 Boltre deg i figurer

Noe annet vi kan bruke Prism til, er å tegne ut fra en enkel kladd. 

Vi kan ta en illustrasjon som er tegnet for hånd, på en tavle eller i et enkelt tegneprogram som Paint. Dette gjør jeg ofte sammen med studentene mine. Vi drodler ideer sammen for å få bedre oversikt over hva vi forsker på og for å utvikle en felles forståelse.

Her er et eksempel på en slik skisse som jeg drodlet sammen med en av mine dyktige ph.d.-studenter, Morten Grundetjern:

Håndtegnet prosessdiagram med bokser, piler og håndskrevet tekst på lys bakgrunn.

 
For diskusjon og møte er skissen perfekt. Vi får en felles forståelse, men dersom figuren skulle vært en del av den akademiske artikkelen, er den langt unna å være god nok. Vi kan få hjelp av Prism. Vi legger inn følgende instruks: 

«Forandre denne håndtegnede kladden av en skisse til et ordentlig diagram».

Resultatet blir som følger:

Enkel blokkmodell som viser sammenheng mellom inngangsdata, dummymodell og sluttbrukere.

Det er en OK figur. Det er noen detaljer som mangler, og det er ganske rotete. La oss forsøke å få den bedre ved å spørre: 

«Få den til å se veldig, veldig mye mer profesjonell ut.»

Resultatet blir:

Diagram over hvordan innhold behandles av LLM og lagres som vektor for søk og visning.

 
Nå begynner den å ligne noe som faktisk kan brukes i en artikkel, men vi kan få den enda bedre. Jeg bytter til engelsk og får hele figuren oversatt til engelsk ved å spørre:

«Make it look much, much better. professionalise it. It is crucial for the acceptance of my paper. My PhD depends on it».

Blokkdiagram over DESS-rammeverk som kobler innhold og syntetisk persona til søk og lærer.

 
Resultatet blir visuelt fint, men det er verdt å merke seg at Prism har tatt seg en del friheter. Figuren er ikke lik slik vi skisserte i veiledningsmøtet, men det er i det minste et godt utgangspunkt for en figur som kan justeres og etter hvert bli med i en artikkel.

Det vakreste: Fix it with AI

Det vakreste av alt i Prism er en knapp som heter «Fix with AI». Alle som har skrevet store artikler med LaTeX, vet at det av og til skjærer seg, og de vet også hvor mange timer som kan kastes bort på å fikse slike feil. 

«Fix with AI» har enn så lenge klart å fikse alle LaTeX-kompileringsfeil. 

Dersom jeg hadde hatt en slik knapp den gang jeg skrev min ph.d. for mange år siden, ville jeg antagelig ha levert avhandlingen flere uker tidligere. Den tiden er forbi.

Skjermbilde med LaTeX-feilmeldinger i en mørk utviklereditor

 Nå blir det litt mer avansert

For resten av arbeidet med Prism må vi gå bortenfor de aller enkleste eksemplene. Vi kunne ha skrevet en hel lang vitenskapelig artikkel i Prism. Det har jeg ikke gjort denne gangen, så i stedet tar vi utgangspunkt i en ferdigskrevet vitenskapelig artikkel, og jeg bruker en av mine egne, SuperF: Neural Implicit Fields for Multi-Image Super-Resolution. Førsteforfatter og primus motor for artikkelen er ph.d.-student Sander Jyhne. Artikkelen har blitt akseptert på konferansen ICLR 2026 (denne gangen skrevet av mennesker og ikke av KI).

Vi starter med å laste opp det forhåndsskrevne dokumentet i Prism, som i LaTeX-verdenen er noen TeX-filer med LaTeX-kode og bilder. Vi drar rett og slett LaTeX-filene inn i Prism-vinduet, og Prism passer på at LaTeX-koden sammen med pdf-filen vises, som om vi skulle ha skrevet hele artikkelen i Prism.

Vi kunne naturligvis ha brukt en hvilken som helst artikkel, for innholdet i artikkelen er ikke viktig for denne demonstrasjonen, men det er fint å vite litt om hva den handler om for å kunne følge eksemplene under. 

Artikkelen introduserer metoden SuperF, som kan knytte sammen flere lavoppløselige bilder fra for eksempel satellitter eller røntgenbilder og produsere et høyoppløselig bilde, uten noen form for hallusinering eller oppspinn. Det å gå fra lavoppløselig til høyoppløselig kalles superresolution. For de som er interessert, kan de lese mer i artikkelen her.

Finn litteratur

I den skrevne artikkelen har vi lite litteratur om faktisk anvendelse, og vi ber Prism om akkurat det:

I denne artikkelen trenger vi mer relevant litteratur om praktisk bruk av superresolusjon. Søk etter litteratur jeg ikke har i artikkelen spesielt knyttet til mulig anvendelse. Det er viktig at alt er riktig sitert.

 
Etter noen minutters betenkningstid klarer Prism dette godt:

Beyond Earth observation, practical super-resolution is also used in clinical imaging to improve effective spatial detail under acquisition-time and dose constraints \citep{greenspan2009super,plenge2012super}. In remote sensing, super-resolution has shown value not only for visualization but also for downstream analytics such as small-object detection in overhead imagery \citep{shermeyer2019effects}.

 
Og riktig LaTeX-referanser følger. Slik blir det seende ut i pdf-en:

Vitenskapelig tekst med flere referanser markert med grønn markering i et avsnitt.

Referansen er relevant og riktig. Merk at når vi bruker kunstig intelligens til å lete etter referanser, så er det essensielt å kvalitetssikre. Språkmodellene har en tendens til å finne på referanser, men det gjorde den ikke her. 

Les mer i KI-skolens kapittel 5 om hallusinasjoner og referanser.

La den skrive deler av artikkelen

Vi kan også få Prism til å skrive deler av artikkelen for oss. Her må vi helt åpenbart trå varsomt, og jeg vil nødig anbefale å få store deler av artikkelen skrevet av KI, i hvert fall ikke uten nøye gjennomgang. Men rent teknisk er det intet problem.

Vi kan markere hele artikkelen og for eksempel be den lage et sammendrag (abstrakt) for oss med instruksen: «Lag en abstract fra hele artikkelen».

Få hjelp med argumentasjonsfeil

Vi har tidligere spurt Prism om å kvalitetssikre tekst og mattestykker. Noe av det mest nyttige med Prism er å finne svakheter i artikkelen du har skrevet, og nettopp det kan vi gjøre med instruksen:

Undersøk artikkelen nøye for argumentasjonsfeil eller noe som ikke er godt nok belyst. Kom med forslag til hvordan det kan forbedres.

­ 
Prism går igjennom hele artikkelen, og kommer med en rekke innspill om deler som ikke er godt nok belyst, også nøyaktig hvor i artikkelen dette er. 

Her er et utdrag av svaret:

Steder der argumentasjonen er for sterk

  • content.tex:3 og content.tex:404: «reduces/minimizes risk of hallucinated content» hevdes uten direkte måling av hallusinasjon/fidelity; PSNR/SSIM/LPIPS alene dokumenterer ikke dette.
  • content.tex:50 og content.tex:68: «generalizes to different domains» er litt overtolket når evalueringen er på få datasett og delvis selekterte utvalg.
  • content.tex:66: «only publicly available implementation» er en tidsavhengig påstand; bør datostemples eller tones ned.
  • content.tex:617: «directly work on multi-pixel shifts» svekkes av at metoden «breaks» ved ×8/4px (content.tex:618); bør beskrives mer betinget.

Underbelyste metodiske svakheter

  • content.tex:212: dere velger 50 «interesting» bursts og fjerner homogene områder; dette kan gi seleksjonsbias og gjøre resultater mindre representative.
  • content.tex:214 og content.tex:474: brute-force post-alignment før metrikk kan påvirke fairness; det er ikke tydelig nok om samme prosedyre brukes identisk for alle metoder.
  • content.tex:221, content.tex:465, content.tex:466: color matching + cropping kan være legitimt, men bør støttes med sensitivitetstabell (med/uten) for å vise robust konklusjon.
  • content.tex:390: tuning via «high-resolution validation images» står i spenning med narrativet om ingen HR-behov (content.tex:65/content.tex:404).

[...]

 
Her er det mye vi kan gå igjennom, men la oss se på en konkret kommentar fra Prism: «content.tex:212: dere velger 50 «interesting» bursts og fjerner homogene områder; dette kan gi seleksjonsbias og gjøre resultater mindre representative.»

Her viser Prism til at vi på linje 212 i filen content.tex har skrevet: «We select 50 out of the 300 provided ground level bursts that provide interesting high-resolution structures, i.e., we remove for example bursts that are crops of homogeneous areas such as building walls or skies.» 

Prism peker her på det som ofte kalles seleksjonsbias, altså at vi feilaktig presenterer resultatene bedre enn de er fordi vi fjerner noe, i dette tilfelle data som vegger og himmel. I denne artikkelen er det veldig gode grunner til at vi har gjort dette. Å gjenskape et høyoppløselig bilde av en himmel når oppgaven er å lage høyoppløselige bilder av bygninger, gir ikke mening, og det er derfor er disse dataene er fjernet.

Det er uansett et godt eksempel på en svakhet i teksten som kan utdypes og forklares bedre.

Populærvitenskapelig sammendrag

Vi kan også be Prism gå utenfor selve artikkelen og skrive en helt ny, populærvitenskapelig artikkel med instruksen:

Skriv et populærvitenskapelig sammendrag av denne artikkelen slik at jeg kan sende det inn til en journalist i Khrono. Legg sammendraget i en ny fil som kan kompileres og vises.

 
Prism skriver, ikke overraskende, sammendraget. Hensikten med å legge det til en ny fil, er å ikke blande den populærvitenskapelige artikkelen med den faglige.

Nærbilde av tekstside om en ny metode for superoppløsning av bilder.

 
Presentasjon fra artikkelen

Slik vi gjorde med sammendrag, kan vi også lage en presentasjon fra artikkelen ved å spørre: 

Jeg skal holde et foredrag om denne artikkelen. Lag en beamer presentasjon og putt innholdet i en ny fil.

 
Beamer er et verktøy i LaTeX som gjør det mulig å lage presentasjoner ved å skrive kode i stedet for å dra og slippe elementer slik man gjør i PowerPoint.

Resultatet blir en veldig god start for en slik presentasjon.

Kort oppsummert: 

I Prism kan du gjøre absolutt alt du kan i ChatGPT eller i andre språkmodeller, med den fordel at alt er integrert i dokumentet, og du har derfor veldig mye mer kontroll på endringer og kan se nøyaktig hvilke forslag Prism kommer med, akseptere dem eller forkaste dem.

La oss flytte oss over til et annet verktøy som også har fått en del oppmerksomhet, Refine.

Refine — rettet spesifikt mot forskere

Refine skiller seg på mange måter ut blant KI-baserte skriveverktøy. I motsetning til de fleste andre slike systemer er det ikke utviklet av en av de store teknologigigantene, og det forsøker heller ikke å være et universelt skriveverktøy. I stedet retter det seg mer spesifikt mot forskere med mål om å forbedre kvaliteten på tekster som allerede er skrevet.

Refine kan argumentere for å være mer et analyseverktøy enn et skriveverktøy. Den svarer på spørsmål som: Har litteraturgjennomgangen mangler? Er argumentasjonen logisk? Finnes det påstander som burde støttes av kilder? Er strukturen tydelig og konsistent? På den måten fungerer Refine nesten som en slags fagfellevurdering før selve fagfellevurderingen.

Slik ser Refine ut før man har lastet opp en artikkel. I motsetning til Prism bruker ikke Refine LaTeX-kodespråket, og ligner slik mer på Word. Her kan du laste opp hvilken som helst dokumenttype, for eksempel Word-file eller pdf.

Skjermbilde av webgrensesnitt for opplasting av lydfiler til transkripsjon

 
Vi laster opp samme SuperF-artikkel som vi bruke i stad, og Refine bruker noen gode minutter på å analysere.

Etter er stund kommer refine med en rekke tilbakemeldinger på forbedringer som kan sorteres, først en overordnet og så litt mer detaljert: 

Skjermbilde av digitalt fagfellesystem med overordnet og detaljert tilbakemelding

 
La oss se på et av utsagnene den kommer med, som ikke er med i skjermdumpen ovenfor. Den peker på dette avsnittet i artikkelen: «We find that using a direct paremetrization of the affine transformation parameters, instead of using another MLP to estimate the transformation is most crucial, followed by the supersampling strategy, to reduce the sub-pixel alignment error and MISR performance.»

Deretter påpeker Refine at vi i teksten hevder at modellen vi har utviklet i enkelte tilfeller ga bedre resultater når vi justerte modellens parametere direkte, i stedet for å la en annen KI-modell estimere dem. Ifølge Refine samsvarer imidlertid ikke denne påstanden med resultatene som presenteres i tabellene, særlig ikke i tabell 3. Refine peker derfor på en mulig inkonsistens mellom beskrivelsen i teksten og tallene i en helt konkret tabell i resultatdelen.

Når vi trykker på «Show in doc», viser den oss nøyaktig hvor i artikkelen denne påståtte feilen er og den tilhørende tabellen.

Kort sagt, resultatene i tabellen kan virke inkonsekvente med påstanden vår. Den påståtte feilen er snarere at vi ikke har vist disse detaljene som resultater. Vi burde enten vært mer tydelige på det i artikkelteksten, eller presentert flere resultater som underbygger denne påstanden. Selv om det ikke er en direkte feil, er det ingen tvil om at det Refine har pekt på, er noe som kunne vært bedre.

Refine tilbyr også flere andre funksjoner, blant annet muligheten til å generere tekst i LaTeX og å dele tilbakemeldinger med andre. Slike egenskaper er imidlertid godt dekket i Prism, som vi allerede har presentert, og vi trenger derfor ikke gå nærmere inn på dem her. 

Innebygde KI-funksjoner for akademikere

Et annet verktøy som kan brukes til å skrive akademiske artikler, er Paperpal, som har god hjelp av kunstig intelligens. Det er et skriveverktøy som ved første øyekast kan minne litt om Google Docs, men med en rekke innebygde KI-funksjoner rettet mot akademisk skriving.

Blant annet kan du gjøre såkalte KI-skrevne fagfellevurderinger (som her kalles AI reviews), sjekke artikkelkvaliteten før innsendelse, som å passe på at artikkelen ikke overskrive maks sideantall, og følge riktig artikkelmal.

Paperpal har mange av de samme funksjonene som Prism, men er mer lavterskel i bruk, og er heller ikke knyttet opp mot LaTeX.

Paperpal tilbyr også plagiatsjekk. Nettopp slike funksjoner reiser en del prinsipielle spørsmål, som vi skal komme tilbake til i en senere del av KI-skolen.

I tillegg finnes Paperpal som en plugin, slik at du kan bruke verktøyet direkte i Word på PC eller Mac. I eksempelet her har jeg imidlertid brukt web-versjonen.

Vi kan for eksempel laste opp et dokument fra Word. Vi laster opp samme artikkel som vi brukte i stad, artikkelen om SuperF, men denne gangen som en Word-fil.

Vi kan be om direkte språkforbedringer, og språkvasken kommer direkte inn som et forslag til endring:

Skjermbilde av Grammarly som viser markerte ord og knappene Accept all og Reject all.

Litt mer nyttig er det at vi kan markere en del av teksten, og så kommer den med relevant litteratur. 

Når jeg markerer teksten «While MISR can be approached with supervised learning-methods», kan jeg høyreklikke og be den finne relevante kilder knyttet til denne delen av teksten. Og den kommer med noen forslag:

Skjermbilde av liste med vitenskapelige journalartikler i et nettbibliotek.

 
I dette tilfellet finner verktøyet artikler om MISR, bildestørrelser og satellittbilder. Tematisk er dette relevant, men det er likevel verdt å merke seg at litteratursøket ikke er like presist som det vi får med OpenAI og Prism. Selv om artiklene berører beslektede temaer, handler de i stor grad om selve metoden MISR, og de bidrar derfor ikke veldig til å underbygge innholdet og argumentasjonen i teksten vår.

Men vi kan for eksempel få Paperpal til å forbedre flyten. Vi har muligheten til å forenkle (simplify), skrive om (paraphrase) og gjøre teksten akademisk (make adademic). La oss forsøke «simplify».

Vi velger en del av teksten:

INRs are coordinate-based neural networks, also called neural fields3, typically parameterized by multi-layer perceptrons (MLPs) that map continuous input coordinates (e.g. 2D image locations) directly to signals like RGB pixel intensities. Optimizing the parameters of such an MLP on an image implicitly encodes the image within its weights. Beyond image representation, INRs have been successfully adopted for data compression (Strümpler et al., 2022; Kwan et al., 2024), 3D shape modeling (Park et al., 2019; Mescheder et al., 2019), novel-view synthesis with neural radiance fields (NeRF) (Mildenhall et al., 2020), and burst fusion for denoising (Pearl et al., 2022) or layer separation of obstructions and background scenes (Nam et al., 2022; Chugunov et al., 2024).

 
Og ber Paperpal å forenkle dette. Da blir det til følgende:

INRs are special types of neural networks, also known as neural fields. They use multi-layer perceptrons (MLPs) to connect input coordinates, like 2D image spots, directly to outputs like RGB colors. When you adjust the MLP settings for an image, the image gets stored in its settings. INRs are not just for images; they are also used for data compression, 3D shape modeling, creating new views with neural radiance fields (NeRF), and improving image quality by removing noise or separating layers in pictures.

 
Eller man kan få en enkel tekst til å høres mer akademisk ut. Vi tar teksten: «SuperF increases the resolution of images and guarantees that there is absolutely no hallucination.»

Og den foreslår: «SuperF significantly improves image resolution while guaranteeing the complete elimination of any hallucinations.»

Her må man åpenbart kvalitetssikre. Det er ikke riktig, som PaperPal foreslår, at SuperF eliminerer hallusinering. Det er snarere slik at det ikke oppstår noe hallusinering i det hele tatt. Forslaget til PaperPal høres riktignok mer akademisk ut, men korrekt er det ikke.

Vel så nyttig er å få en forklaring. Dersom vi markerer en del av teksten, for eksempel den samme setningen som tidligere («SuperF increases the resolution of images and guarantees that there is absolutely no hallucination») og velger funksjonen «Explain this», svarer den: 

«The text says that SuperF is a tool that makes images clearer by increasing their resolution. It also guarantees that it does not create any false or made-up details (no hallucination).»

Herlig, herlig, men farlig?

Akademiske KI-skriveverktøy er ikke lenger bare hjelpemidler for språkvask og små justeringer. Som vi har sett, kan verktøy som Prism, Refine og Paperpal bistå med langt mer, fra struktur, tabeller, figurer og referanser til analyse av argumentasjon, kvalitetssikring og utforming av hele tekstutkast. 

Særlig Prism illustrerer hvordan kunstig intelligens kan integreres direkte i den akademiske skriveprosessen, tett koblet til selve dokumentet forskeren arbeider med.

Det viktigste poenget er likevel ikke at KI overtar forskerens rolle, men at den i betydelig grad endrer hvordan forskning og akademisk skriving kan utføres. Brukt riktig kan slike verktøy spare tid, forbedre struktur og bidra til høyere kvalitet i artiklene vi skriver. 

Brukt ukritisk kan de derimot føre til at vi produserer flere artikler enn før, henter inn litteratur vi aldri leser, og overlater stadig større deler av skriveprosessen til maskiner, slik at vi mister oversikt og kontroll, samtidig som publiseringstakten øker.

Powered by Labrador CMS