Debatt ● Klas Pettersen

Salzmann og Wasson sover i timen

Det er åpenbart behov for et KI-sikkerhetsinstitutt.

Klas Pettersen, direktør i SimulaMet
Publisert

Denne teksten er et debatt­inn­legg. Inn­holdet i teksten uttrykker forfatterens egen mening.

I forrige uke tok Silvija Seres til orde for å opprette et KI-sikkerhetsinstitutt ved en norsk forskningsinstitusjon. Svaret fra Anja Salzmann og Barbara Wasson er en av de merkeligste kronikker jeg har lest fra forskere på lenge.

Kort oppsummert mener Salzmann og Wasson at dette behovet allerede er dekket av deres eget og andre norske KI-sentre.

De skriver blant annet at «KIs underliggende kybernetisk-epistemologiske logikk vil utfordre norske verdier», men at denne og andre utfordringer vil bli belyst i arbeidet til flere av de nye KI-sentrene.

Det som gjør innlegget til noe uvant lesing er hvordan de ordlegger seg. Det argumenteres ikke bare mot Seres’ forslag, men mot hennes kompetanse: «Vi er usikre på hvorvidt Seres har hatt mulighet til å sette seg inn i allerede eksisterende akademiske forskningsmiljøer eller om hun har vært involvert i prosjektutvikling og forarbeid til de nye nasjonale KI-sentrene som er under etablering. Men mye tyder på at det ikke har vært tilfelle.»

Jeg kan betrygge Salzmann og Wasson om at Seres er godt orientert. Hun har ledet Langsikts ekspertutvalg på KI, som torsdag 23. oktober lanserte sin rapport «De ti KI-bud». 

Jeg har hatt gleden av å delta i dette utvalget og kan forsikre Salzmann og Wasson om at det har vært bred forskningskompetanse i utvalget. Et samlet utvalg har også stilt seg bak forslaget om at Norge bør etablere et nasjonalt KI-sikkerhetsinstitutt. 

Salzmann og Wasson har for all del rett i at det gjennomføres mye god forskning på KIs samfunnspåvirkning i Norge. Men et KI-sikkerhetsinstitutt skal fylle en annen rolle. 

Hovedformålet med en slik institusjon er å teste, evaluere og tolke modeller og KI-systemer som tas i bruk i Norge. Det krever dyp teknisk forskerkompetanse.

Som tidligere leder av NORA bidro jeg til å etablere et samarbeid med Alan Turing Institute, og jeg har fulgt Storbritannias aktive KI-politikk tett. I Storbritannia har de betraktet de store grunnmodellene som grunnleggende infrastruktur, med dertil sikkerhetsfokus. De opprettet tidlig det som het The foundation model taskforce, som senere har blitt hetende AI Security Institute (AISI).

Opprettelsen fant sted i forbindelse med at Storbritannia arrangerte AI Safety Summit i 2023, et møte hvor det ble oppstandelse i det norske miljøet for at Norge ikke ble invitert. AI Summits har blitt en årlig begivenhet hvor statsledere, toppledere og forskere innen KI møtes. 

I år ble Norge invitert til AI Action Summit i Paris, og jeg var en av de heldige som fikk være med. Der ble Bengios International AI Safety Report lansert og heftig diskutert, og særlig satte landene som har egne AI Security Institutes sitt preg på møtet. Dette nettverket av AI Security Institutes har også dannet interne samarbeid, hvor EU AI Office er en sentral aktør. Alex Molzau, tidligere ansatt i NORA, har vært Norges utsendelse på EU AI Office, og han har flittig rapportert hjem om arbeidet der.

Bildet jeg forsøker å male er at KI-sikkerhetsinstituttene er forskningsinstitutter, men de er noe mer. De har et stort ansvar for nasjonal KI-sikkerhet, men i tillegg har de blitt et viktig politisk virkemiddel for internasjonalt samarbeid innenfor KI. 

Hvis vi tar Storbritannias senter som eksempel så er deres primære oppgaver å teste avanserte KI-systemer og informere beslutningstakere om risikoer, samt å fremme forskning på løsninger og forebyggende tiltak. Instituttet ligger under Storbritannias Department for Science, Innovation, and Technology og har et årlig budsjett på nesten én milliard kroner.

Jeg mener ikke at Norge skal bruke et tilsvarende beløp på å opprette et KI-sikkerhetsinstitutt, men at det hadde vært hensiktsmessig å opprette et KI-sikkerhetsinstitutt som kan understøtte KI-Norges fremtidige oppgaver og som kan fungere som et uavhengig forskningsmiljø som rapporterer på sine funn til norske myndigheter. 

Et slikt senter kan inngå i det internasjonale nettverket av KI-sikkerhetsinstitutt, noe som vil gi Norge gode muligheter til å påvirke internasjonal politikk innenfor området.

KI berører nært sagt alle samfunnsområder, og «sikkerhet» kan tolkes bredt. Men Seres’ innlegg må tolkes som en oppfordring til å etablere en nasjonal test- og evalueringsfunksjon ved en uavhengig forskningsinstitusjon. Og det er noe jeg utvilsomt kan stille meg bak.

Powered by Labrador CMS