Debatt ● Bror-Magnus S. Strand

Ikkje sel KI-skinnet før bjørnen er skoten

Når det offentlege gjer bruk av kunstig intelligens må ein tora å gjera feil og vera ærleg om det. Her er eit forslag til fire hugsereglar for smart bruk av KI i offentlege tenester.

Eg har eit favorittsitat frå UiTs strategi, skriv forfattaren: «Vi skal vere ein attraktiv og inkluderande arbeids- og lærestad der det er rom for å prøve, feile og lukkast.»
Publisert

Denne teksten er et debatt­inn­legg. Inn­holdet i teksten uttrykker forfatterens egen mening.

Universitets- og høgskolesektoren må tilpassa seg ein ny økonomisk kvardag, og UiT kjem til å måtta effektivisere i åra som kjem. Digitale løysingar, særleg kunstig intelligens, er mykje diskutert og er openbert ein av løysningane, men det er ikkje gitt at KI vil gjera tenester meir effektive, og i alle fall ikkje med ein gong. 

Skolestruktursaka i Tromsø kommune er eit døme på dette. 

No må andre offentlege verksemder lære. Her er eit forslag til fire hugsereglar for smart bruk av KI i offentlege tenester:

1. All bruk av nye verktøy krev kompetanseheving

Som med alle nye verktøy, krev det kompetanseheving å ta i bruk KI på ein god måte. Dette handlar ikkje berre om teknisk opplæring, men også om å forstå korleis KI fungerer, kva for avgrensingar teknologien har, og korleis ein kan bruka han på ein etisk og berekraftig måte. KI må vera eit supplement til, og ikkje ei erstatning for, eigen dømmekraft. 

Dette inneber kanskje at ein må investera på kort sikt for å få ein langsiktig effektiviseringsgevinst.

2. Berekraftsperspektivet må ikkje gløymast

Energiforbruket ved generativ KI og utsleppa det fører med seg, har allereie fått mykje merksemd. I tillegg er det eit sosial perspektiv: sensureringa av treningsmaterialet til KI-ar — til dømes skildringar av overgrep — har til dels blitt utført av underbetalte arbeidarar i den tredje verda. Eit arbeid som lét etter seg mange av dei traumatiserte. 

Ved bruk av KI må ein gjennomføre ein kost-nytte analyse av kva for prosessar som skal gjerast av maskin og kva som skal gjerast av menneske, og om effektiviseringa kan rettferdiggjera kostnaden. Og me må vera visse på at løysingane me brukar, ikkje bidrar til sosial dumping i det globale sør. 

Dette er vurderingar me må gjera på systemnivå, ikkje berre kvar for oss.

3. Det må gjennomførast risikoanalysar

KI medfører ein del heilt spesifikke risikoar som ein må ta høgde for. Til dømes er generativ KI trena på store mengder data frå internett, som ofte inneheld fordommar og skeivfordelingar. Dette kan føra til at KI-systema forsterkar eksisterande ulikskapar, til dømes ved å diskriminera på grunnlag av kjønn, etnisitet eller alder

Eit døme på dette er korleis KI-baserte rekrutteringsverktøy har favorisert menn framfor kvinner, fordi dei er trena på historiske data der menn har dominert visse yrke.

4. Ein må tora å gjera feil og vera ærleg om det

Eg har eit favorittsitat frå UiTs strategi: «Vi skal vere ein attraktiv og inkluderande arbeids- og lærestad der det er rom for å prøve, feile og lukkast.» Dette gjer seg gjeldande i alle omstillingsprosessar, men er ekstra viktig når verktøya som blir tatt i bruk er eit så tydeleg brot med det som har vore. 

Det er ikkje alltid sosialt akseptabelt å anerkjenna eller framheva feil, men det burde det i større grad vera. Og det kan vera særs dyrt å ikkje gjera det: om ein sel inn mislukka forsøk som halvsigrar overfor seg sjølv og omverda, går ein glipp av dyrebare læringspunkt i å evaluera kva som gjekk feil og kvifor.

Powered by Labrador CMS