Debatt ● Bror-Magnus S. Strand
Ikkje sel KI-skinnet før bjørnen er skoten
Når det offentlege gjer bruk av kunstig intelligens må ein tora å gjera feil og vera ærleg om det. Her er eit forslag til fire hugsereglar for smart bruk av KI i offentlege tenester.

Denne teksten er et debattinnlegg. Innholdet i teksten uttrykker forfatterens egen mening.
Universitets- og høgskolesektoren må tilpassa seg ein ny økonomisk kvardag, og UiT kjem til å måtta effektivisere i åra som kjem. Digitale løysingar, særleg kunstig intelligens, er mykje diskutert og er openbert ein av løysningane, men det er ikkje gitt at KI vil gjera tenester meir effektive, og i alle fall ikkje med ein gong.
Skolestruktursaka i Tromsø kommune er eit døme på dette.
No må andre offentlege verksemder lære. Her er eit forslag til fire hugsereglar for smart bruk av KI i offentlege tenester:
1. All bruk av nye verktøy krev kompetanseheving
Som med alle nye verktøy, krev det kompetanseheving å ta i bruk KI på ein god måte. Dette handlar ikkje berre om teknisk opplæring, men også om å forstå korleis KI fungerer, kva for avgrensingar teknologien har, og korleis ein kan bruka han på ein etisk og berekraftig måte. KI må vera eit supplement til, og ikkje ei erstatning for, eigen dømmekraft.
Dette inneber kanskje at ein må investera på kort sikt for å få ein langsiktig effektiviseringsgevinst.
2. Berekraftsperspektivet må ikkje gløymast
Energiforbruket ved generativ KI og utsleppa det fører med seg, har allereie fått mykje merksemd. I tillegg er det eit sosial perspektiv: sensureringa av treningsmaterialet til KI-ar — til dømes skildringar av overgrep — har til dels blitt utført av underbetalte arbeidarar i den tredje verda. Eit arbeid som lét etter seg mange av dei traumatiserte.
Ved bruk av KI må ein gjennomføre ein kost-nytte analyse av kva for prosessar som skal gjerast av maskin og kva som skal gjerast av menneske, og om effektiviseringa kan rettferdiggjera kostnaden. Og me må vera visse på at løysingane me brukar, ikkje bidrar til sosial dumping i det globale sør.
Dette er vurderingar me må gjera på systemnivå, ikkje berre kvar for oss.
3. Det må gjennomførast risikoanalysar
KI medfører ein del heilt spesifikke risikoar som ein må ta høgde for. Til dømes er generativ KI trena på store mengder data frå internett, som ofte inneheld fordommar og skeivfordelingar. Dette kan føra til at KI-systema forsterkar eksisterande ulikskapar, til dømes ved å diskriminera på grunnlag av kjønn, etnisitet eller alder.
Eit døme på dette er korleis KI-baserte rekrutteringsverktøy har favorisert menn framfor kvinner, fordi dei er trena på historiske data der menn har dominert visse yrke.
4. Ein må tora å gjera feil og vera ærleg om det
Eg har eit favorittsitat frå UiTs strategi: «Vi skal vere ein attraktiv og inkluderande arbeids- og lærestad der det er rom for å prøve, feile og lukkast.» Dette gjer seg gjeldande i alle omstillingsprosessar, men er ekstra viktig når verktøya som blir tatt i bruk er eit så tydeleg brot med det som har vore.
Det er ikkje alltid sosialt akseptabelt å anerkjenna eller framheva feil, men det burde det i større grad vera. Og det kan vera særs dyrt å ikkje gjera det: om ein sel inn mislukka forsøk som halvsigrar overfor seg sjølv og omverda, går ein glipp av dyrebare læringspunkt i å evaluera kva som gjekk feil og kvifor.
Nylige artikler
– Det er en borgerplikt å dele kunnskapen
Universitetene skal ikke bli beredskapsmotorer — men de må heller ikke stå på sidelinjen
På tide å lette på trykket, mener UiS-ansatte
Federica Mogherini sier opp som rektor etter korrupsjonsanklagene
Hva venter vi på?
Mest leste artikler
Direktør med uheldig «klaps» på direktesendt TV
På pulten til historieprofessoren låg ein lapp med beskjed om å rydda
Føler seg avskiltet etter søknad om merittering
Slutt på at ansatte kan bruke Airbnb og Booking.com på jobbreiser
Rektor Mogherini arrestert etter korrupsjonsanklager