Kunstig intelligens

Bekymret for at KI-ansvar lempes over på de ansatte

Tillitsvalgte i Trondheim, Oslo og Bergen mener utdannings­institusjonene må ta et større ansvar for at kunstig intelligens brukes på en sikker måte. — Den tiden der IT-avdelingene passer på deg er forbi, svarer NTNUs IT-direktør.

Thomas Ferstad er nestleder i NTL NTNU
— Vi er rystet over at toppledelsen ikke virker å være mer interessert i hvordan KI skal brukes ved NTNU. Ansvaret dyttes ned på hver enkelt ansatt, sier Thomas Ferstad i Norsk Tjenestemannslag ved NTNU.
Publisert

— Vi vil ha en virksomhet som setter seg mer i førersetet og evner å gjøre valg ansatte kan forholde seg til. Hvem er det som har ansvaret om en saksbehandler eller forsker bruker kunstig intelligens feil? Skal du få en advarsel eller personalsak mot deg for at du ikke visste bedre? God opplæring i både retningslinjer og bruk av kunstig intelligens i eget arbeid er en forutsetning for bruk.

Thomas Ferstad, nestleder i Norsk Tjenestemannslag (NTL) ved NTNU, er oppgitt etter siste runder med nyheter fra KI-fronten ved universitetet.

Under et drøftingsmøte i februar kom «IT-avdelingen halsende inn», for å bruke Ferstads ord, for å fortelle at Microsoft hadde bestemt at KI-tjenesten deres skulle ha tilgang til blant annet e-postene til ansatte. Tjenesten skulle kunne søke på tvers av alle Microsoft-applikasjoner.

I protokollen fra møtet kommer det fram at både fagforeningene, hovedverneombud og ledelsen selv hadde kritiske spørsmål til dette, både om hvorvidt de ansatte får for mye ansvar og om hvilken risiko en løper med en slik løsning.

— Se for deg innboksen til leder som har sittet i 20 år. Plutselig trenger du bare tre tastetrykk for å få ut en rapport om ansattes dialog med lederen om personalsaker med sensitive data, sier Ferstad.

— Så skal IT-avdelingen ha skryt for at de løftet problemstillingen. Det er krevende for mange å henge med når det går så raskt som nå.

Den enkelte ansatte kunne skru av tilgangen, men det fantes ingen overordnet måte for NTNU å slå av dette uten å stenge hele tjenesten, var første beskjed. Senere viste det seg at det fantes et alternativ. Men saken peker likevel på et prinsipielt problem, mener NTL-nestlederen.

Liv og lære

— NTNUs retningslinjer for bruk av kunstig intelligens opplyser om hva ansatte kan og ikke kan bruke tjenestene til. Men retningslinjene forutsetter at du har kunnskapen som trengs for å ta gode valg, samtidig som at virksomheten selv ikke tar all verden til ansvar.

NTNUs retningslinjer for kunstig intelligens skal nå revideres, og et av punktene i høringsnotatet som er sendt ut, er nettopp at retningslinjene «ivaretar ansvar, transparens og etterprøvbarhet.»

Forslaget til retningslinjer slår også fast at alle brukere er pliktige til å «ta det fulle ansvar for KI-generert innhold og resultater som helt eller delvis tas i bruk, publiseres eller legges til grunn i arbeid eller studier.»

Ferstad viser til eksempler der kunstig intelligens er blitt brukt både i utforming av utlysninger, oppgaver til intervjuene og til å sammenfatte erfaringsbakgrunn og kvalifikasjonene til søkerne.

— Vi aner jo ikke hva algoritmene legger vekt på, og ansettelser er sensitive saker. Da er vi avhengig av at vi har gjort gode refleksjoner om hvordan verktøy brukes, og at de ansatte vet hvordan det skal brukes.

— Når vi snakker med ekspertene på NTNU, så sier de at med de endringene vi ser i USA nå, så finnes det muligheter for at informasjon fra Microsoft-brukere kan havne på avveie. Vi er bekymret for vår avhengighet av amerikanske tech-giganter og hvordan våre data håndteres og sikres. Dette er en problemstilling jeg mener NTNU også bør diskutere på virksomhetsnivå.

I tillegg til sensitive data på avveie er ukritisk KI-bruk også et potensielt problem fra et forvaltningsperspektiv, sier Ferstad.

— Vi er et forvaltningsorgan som skal likebehandle alle som kommer til oss. Da må en kunne fortelle hva grunnlaget for vedtaket er og hva som kan gjøres annerledes for å få et annet utfall. Outsourcer vi det til en svart boks har vi ikke de svarene, sier han.

— Jeg er ikke bare negativ til kunstig intelligens, men vi må være sikre på at vi bruker det i tråd med lover og retningslinjer. Og de vurderingene må ligge hos institusjonen, ikke den enkelte arbeidstaker.

— Forventes stor frihet

Universitetets direktør for organisasjon og infrastruktur, Bjørn Haugstad, mener på sin side at det er nettopp det retningslinjene gjør.

NTNU-direktør Bjørn Haugstad mener det er viktig at brukerne også tar ansvar.

— De er et styringsverktøy som skal bidra til å sikre trygg, lovlig og forsvarlig bruk av teknologien. Retningslinjene skal hjelpe våre studenter og ansatte til å bruke KI-verktøy i tråd med krav til informasjonssikkerhet, personvern og etiske vurderinger. Hensikten er å gjøre det enklere å forstå hva som er tillatt, og hvordan KI kan brukes på en ansvarlig måte i arbeid og studier, sier han.

— Samtidig er det ikke til å stikke under en stol at det ved et universitet forventes stor frihet til å utforske ny teknologi på egen hånd, og arbeidsgivers ansvar blir da i stor grad å legge til rette for at det kan skje uten for stor risiko.

Haugstad forteller at universitetet nå reviderer retningslinjene for å holde tritt med utviklingen, samt gjør de mer anvendelige. De skal også ha et særlig fokus på gode prosesser for opplæring, utvikling og pilotering, forteller han.

— Vi er bevisst på at vår bruk av teknologi ikke skal svekke tilliten til vår forskning, utdanning og administrasjon. Da er det viktig at brukerne også tar ansvar. Som ved bruk av alle digitale verktøy ved NTNU stilles det krav til at den enkelte bruker verktøyene på en faglig forsvarlig måte, i tråd med gjeldende regelverk og krav. Dette gjelder også kunstig intelligens.

Mener ansatte må ta ansvar

— Den tiden der IT-avdelingene passer på deg og sørger for at de dumme tingene du gjør blir fanget opp er forbi, slår NTNUs IT-direktør Håkon Alstad fast.

Samtidig påpeker han at universitetet mandag lanserte sin egen KI-tjeneste som både skal være trygg og beskytte ansatte fra å gjøre feil i større grad enn de kommersielle tjenestene.

IT-direktøren gir likevel Ferstad rett i at det skorter på opplæringen ved NTNU.

Portrett
Håkon Alstad er IT-direktør NTNU. Han mener ansatte må ta en større del av ansvaret.

— Der har ikke NTNU kommet godt i gang. Det jobbes med nye retningslinjer, men arbeidet går tregt og det gjøres lite for å få det under huden på de ansatte. Det er en tøff verden der ute, og ting endres raskt. Det krever at NTNU også jobber raskere med dette enn hva vi gjør i dag.

Og i en slik tøffere verden med raskere endringer må nødvendigvis mer av ansvaret plasseres på den ansatte.

— Det er slik det må bli. En må ha mer kompetanse på hva forskjellige verktøy gjør og ikke, og en må vite hvordan data skal behandles, sier Alstad.

Det siste er ikke noe nytt, påpeker han. E-posten har snart eksistert så lenge at ingen ved norske universiteter husker et yrkesaktivt liv uten, men det til tross så er det stadig informasjon i e-poster som ikke har noe i en e-post å gjøre.

IT-direktøren sammenligner e-posten med et postkort. Alt er oppe i dagen, ingen konvolutt skjuler innholdet. Men selv om de ber ansatte opptre deretter, så ser de at det drives saksbehandling på e-post, og at det sendes data som ikke har noe på e-post å gjøre.

— Selv om det ikke er nytt må vi nå være veldig mye mer bevisste og legge til rette for sikker bruk, samtidig som at den enkelte ansatte må ha mer kompetanse. Vi kommer ikke utenom det, hvis vi skal holde på i en ny og litt mer uoversiktlig digital verden.

— Vi må erkjenne at risikoen er større. Alternativet er å si at vi ikke skal bruke kunstig intelligens, og bare gi de ansatte verktøy uten KI-støtte. Det tror jeg heller ikke de ansatte vil.

— Og det kan raskt ende med at de bruker egne løsninger?

— Ja, det vi kaller «skygge-IT» kommer bare til å øke, og er ikke bra. 

Bekymringen deles i øst og i vest

Bekymringen fra NTNUs NTL-nestleder er ikke bare en sørtrøndersk bekymring. Også i Bergen og Oslo er NTL-tillitsvalgte bekymret over utviklingen.

— Det er som om det har oppstått et vakuum, og det er ikke holdbart. Det er åpenbart at det er arbeidsgiver som skal ha ansvaret for hvordan dette skal brukes, sier Natalia Zubillaga, hovedtillitsvalgt for NTL ved Universitetet av Oslo.

Natalia Zubillaga fra NTL UIO deler bekymringen til kollegaen i Trondheim.

Hun forteller at de nå setter i gang en kartlegging av situasjonen for å få oversikt.

— Vi har bedt om drøftinger av bruken av kunstig intelligens, retningslinjer og ansvarsfordeling, men det har ikke skjedd ennå selv om det allerede er i bruk. Per nå har vi ikke oversikt over hvem det er som er ansvarlig.

En tilsvarende bekymring finnes også vest i landet.

— Vi ønsker å minimere risikoen for at ansatte skal måtte ta ansvaret for noe som burde vært begrenset gjennom systemiske tiltak, sier Jørgen Mjelve, NTL-toppen i Bergen.

— Så vil jeg si at jeg mener Universitetet i Bergen har gjort en del grep som virker fornuftig for å redusere den risikoen, samtidig som jeg det er vanskelig å ha helt oversikten. Det skjer så mye og så raskt at det absolutt er en bekymring, sier han.

Mjelve peker blant annet på at man i en presset arbeidshverdag gjerne utsetter å ta opplæring en får tilbud om, samtidig som det stadig kommer beskjeder om å bruke kunstig intelligens i arbeidsflyten.

— Da blir det et spørsmål hvilke data du vil at en slik språkmodell skal ha tilgang til. Hvis alle har merket dataene rett, så kan en unngå at sensitive data havner i modellene, men virkeligheten er nå en gang sånn at studenter og ansatte tidvis sender e-poster med sensitive opplysninger, og dokumenter som ikke mer merket rett, sier Mjelve.

— Jeg sier ikke at det kommer til å skje mange glipper, men det kan skje at det glipper ut sensitive data.

Powered by Labrador CMS