Debatt ● Bror-Magnus S. Strand
Ikkje sel KI-skinnet før bjørnen er skoten
Når det offentlege gjer bruk av kunstig intelligens må ein tora å gjera feil og vera ærleg om det. Her er eit forslag til fire hugsereglar for smart bruk av KI i offentlege tenester.


Denne teksten er et debattinnlegg. Innholdet i teksten uttrykker forfatterens egen mening.
Universitets- og høgskolesektoren må tilpassa seg ein ny økonomisk kvardag, og UiT kjem til å måtta effektivisere i åra som kjem. Digitale løysingar, særleg kunstig intelligens, er mykje diskutert og er openbert ein av løysningane, men det er ikkje gitt at KI vil gjera tenester meir effektive, og i alle fall ikkje med ein gong.
Skolestruktursaka i Tromsø kommune er eit døme på dette.
No må andre offentlege verksemder lære. Her er eit forslag til fire hugsereglar for smart bruk av KI i offentlege tenester:
1. All bruk av nye verktøy krev kompetanseheving
Som med alle nye verktøy, krev det kompetanseheving å ta i bruk KI på ein god måte. Dette handlar ikkje berre om teknisk opplæring, men også om å forstå korleis KI fungerer, kva for avgrensingar teknologien har, og korleis ein kan bruka han på ein etisk og berekraftig måte. KI må vera eit supplement til, og ikkje ei erstatning for, eigen dømmekraft.
Dette inneber kanskje at ein må investera på kort sikt for å få ein langsiktig effektiviseringsgevinst.
2. Berekraftsperspektivet må ikkje gløymast
Energiforbruket ved generativ KI og utsleppa det fører med seg, har allereie fått mykje merksemd. I tillegg er det eit sosial perspektiv: sensureringa av treningsmaterialet til KI-ar — til dømes skildringar av overgrep — har til dels blitt utført av underbetalte arbeidarar i den tredje verda. Eit arbeid som lét etter seg mange av dei traumatiserte.
Ved bruk av KI må ein gjennomføre ein kost-nytte analyse av kva for prosessar som skal gjerast av maskin og kva som skal gjerast av menneske, og om effektiviseringa kan rettferdiggjera kostnaden. Og me må vera visse på at løysingane me brukar, ikkje bidrar til sosial dumping i det globale sør.
Dette er vurderingar me må gjera på systemnivå, ikkje berre kvar for oss.
3. Det må gjennomførast risikoanalysar
KI medfører ein del heilt spesifikke risikoar som ein må ta høgde for. Til dømes er generativ KI trena på store mengder data frå internett, som ofte inneheld fordommar og skeivfordelingar. Dette kan føra til at KI-systema forsterkar eksisterande ulikskapar, til dømes ved å diskriminera på grunnlag av kjønn, etnisitet eller alder.
Eit døme på dette er korleis KI-baserte rekrutteringsverktøy har favorisert menn framfor kvinner, fordi dei er trena på historiske data der menn har dominert visse yrke.
4. Ein må tora å gjera feil og vera ærleg om det
Eg har eit favorittsitat frå UiTs strategi: «Vi skal vere ein attraktiv og inkluderande arbeids- og lærestad der det er rom for å prøve, feile og lukkast.» Dette gjer seg gjeldande i alle omstillingsprosessar, men er ekstra viktig når verktøya som blir tatt i bruk er eit så tydeleg brot med det som har vore.
Det er ikkje alltid sosialt akseptabelt å anerkjenna eller framheva feil, men det burde det i større grad vera. Og det kan vera særs dyrt å ikkje gjera det: om ein sel inn mislukka forsøk som halvsigrar overfor seg sjølv og omverda, går ein glipp av dyrebare læringspunkt i å evaluera kva som gjekk feil og kvifor.
Nylige artikler
Uppsala oppfordret til Irsael-reaksjoner. — Bør handle kraftfullt
Fikk inspirasjonspris og 250.000 kroner
Fakta og spekulasjon i debatten om covid-19-virusets opprinnelse
Sild, potet og kunstig intelligens
Dommer stopper Trumps ordre om å utestenge internasjonale studenter
Mest leste artikler
Professor ved UiO anmeldt for rasisme: — Jeg husker ingenting
Jobber for å hente dansk toppforsker fra USA til Norge
Ny sjokkmåling for Frp blant studentene: — En sensasjon
Ingrid fikk flere hjerneslag. Nå kjemper hun for å få jobbe
Du får ikke lønnsøkningen før til høsten. Mange må vente helt til desember