Debatt ● Are Bøe Pedersen
Læring med KI: Avlastning eller avkastning?
Sammenblanding av juridiske og læringsmessige spørsmål tåkelegger begge deler, uten å ta hensyn til en av de sentrale utfordringene med KI som læringsverktøy: I studentenes kognitive avlasting er det ofte selve læringen som avlastes.

Denne teksten er et debattinnlegg. Innholdet i teksten uttrykker forfatterens egen mening.
I innlegget sitt av 9. oktober slår Karl Philip Lund fast at «det er ikke stjeling å lære». Det tror jeg de fleste kan være enige i. Samtidig bygger den konklusjonen på en sammenblanding av to spørsmål som ikke egentlig har så mye med hverandre å gjøre:
Det juridiske spørsmålet om hvorvidt treningsdata skal omfattes av åndsverkloven, og det pedagogiske spørsmålet om hvor nyttig KI-verktøy er for studenter.
Å kalle brudd på åndsverkloven for «stjeling» er en yndet retorisk figur hos de som er opptatt av å forsvare åndsverk. Når det retoriske grepet gjøres for åpenbart, blir det i stedet latterlig.
Alle over en viss alder husker formodentlig den alvorlige advarselen før DVD-filmene begynte — «You wouldn’t steal a car» — som om det å kopiere en film er sammenliknbart med å stjele en bil. Trine Skei Grande sine uttalelser på vegne av forlagenes kommersielle interesser går i denne gamle fellen, og blir dermed enkle å avfeie.
Det juridiske spørsmålet om opphavsrett er imidlertid ikke så avklart som Lund fremstiller det.
Det er en kjensgjerning at KI-gigantene Anthropic og OpenAI har begått plagiat i en tidligere uhørt skala. Forsvaret var at deres storskala-plagiat var et offentlig gode av stor betydning, og dermed «fair use», som opphever de vanlige åndsverksbeskyttelsene. Dette gikk dommeren med på, men kun for de bøkene Anthropic selv hadde kjøpt.
Treningsdataene deres inkluderte også millioner av piratkopierte bøker, som de ikke slapp unna med: Her kom de til en (dyr) overensstemmelse som innebar at Anthropic måtte betale erstatning på rundt 3000 dollar per piratkopierte verk de hadde brukt.
Dette er bare en av flere pågående rettssaker mot språk- og bildemodeller for brudd på åndsverkloven. Bildegeneratoren Midjourney har for eksempel ertet på seg Disney, i det som ligger an til å bli et dyrt søksmål. Dette er altså langt ifra avgjort eller entydig, og det er ingen automatikk i at norske forlag plutselig skal kappes om å kysse ringen til KI-selskapene på grunn av en tvetydig dom i Nord-California.
At forlagene er tilbakeholdne med å åpne data-dørene på vidt gap, er neppe et tegn på kunnskapsmangel, eller som Hege Ulveland skriver, en utdatert holdning til hva som fører til læring.
Både Lund og Ulveland nevner musikkstrømmetjenesten Spotify som et eksempel på en innovasjon som løste et problem for alle involverte: Piratkopiering ble fortrengt, musikk tilgjengelig for forbrukere, og artistenes inntekter sikret.
Dette er en sannhet med modifikasjoner. De aller fleste musikere — rundt 70 prosent — er misfornøyde med inntekten de får fra strømmetjenester. For de aller fleste er det simpelthen ikke mulig å leve av musikken.
Etter at Spotify og plateselskapene har tatt sin andel, sitter artistene igjen med rundt 16 prosent av den mikroskopiske utbetalingen de får per avspilling. Artistene selv kaller denne løsningen for «insulting and completely unsustainable». Dersom jeg — som forlagene — ble forsøkt solgt en slik løsning, hadde jeg også protestert.
Forlagenes tilbakeholdenhet i møte med KI-selskaper som vil ha tilgang til materialet deres, kommer sannsynligvis studentene til gode, gitt den økende kunnskapen om svakhetene ved KI som læringsverktøy.
Til og med OpenAIs egne forskere har måttet konkludere med at hallusinasjoner er en iboende del av måten teknologien fungerer på, og ikke vil kunne fjernes ved mer datakraft eller treningsdata, heller ikke i «lukkede» systemer. Uavhengige forskere påpekte det samme tidligere. Dermed er det god grunn til å være skeptisk når man ber språkmodeller oppsummere og forenkle lange tekster, slik Ulveland foreslår.
Man kan selvsagt be studenter om å være kritiske og å verifisere informasjonen de får. Problemet med det er at studentene ikke selv er eksperter i faget — de er i ferd med å bli det. De mangler forutsetningene for å kvalitetssikre informasjonen de får servert.
Å forlange total kapitulasjon fra norske forleggere i spørsmålet om opphavsrett løser et uavklart juridisk problem for KI-selskapene — men det skjer ikke av hensyn til læring.
Det er også lite som tyder på at KI-verktøy forsterker kritisk tenkning, som det står i en av Ulvelands mange punktlister. Tvert imot: Ved å bruke KI-verktøy opplever man en effekt som kalles for «cognitive offloading», eller kognitiv avlasting.
Fordelen med slik avlastning er at man kan fordele arbeidsminnet på flere oppgaver, og dermed mer effektivt gjøre flere ting samtidig. Ulempen er at de fjerner behovet for de kritiske tankeprosessene som gjør at man lærer noe.
Når studenter bruker KI og opplever kognitiv avlastning, er det altså selve læringen de avlaster. Akkurat som at det ikke er noen magisk sammenheng mellom bøker og læring, er det heller ingen automatikk i at bruk av KI fører til mer eller bedre læring.
Når studenter selv forteller at de bruker ChatGPT til å få oppsummert anatomi-pensum «som et barnehagebarn», så er det ikke sikkert at de egentlig har lært så mye om anatomi, eller at det de mener de har lært faktisk kan brukes i virkeligheten.
KI-pedagogikken som bygger på forenkling, avlasting og automatisering ser ut til å ha identifisert det at læring er anstrengende som et problem som må løses — men det er jo nettopp gjennom anstrengelsen at man lærer.
Dersom man vil ha kognitiv avkastning fremfor avlastning, stiller pensumbøker, gjennom kravene til konsentrasjon og kognitiv innsats, langt sterkere.
Målet med å lese akademiske fagtekster er å trene opp evnen til å lese akademiske fagtekster, slik at man kan vurdere, forstå og hente ut sentrale momenter fra dem. Det er ikke slik at læring i seg selv avhenger av verken papir eller bøker, men det er avhengig av at de kognitive prosessene som fører til læring faktisk finner sted.
Å forlange total kapitulasjon fra norske forleggere i spørsmålet om opphavsrett løser et uavklart juridisk problem for KI-selskapene — men det skjer ikke av hensyn til læring.