Debatt ● Audun Aagre og Mari Velsand

Tilgangen til globale plattformers data må utnyttes

Globale plattformer er portvoktere for den offentlige samtalen. Digital Services Act (DSA) sikrer innsyn i dataene og algoritmene. Dette er en mulighet som bør utnyttes av forskere.

Regjeringens satsing på forskning om kunstig intelligens gir en god anledning til økt forskning på hvordan innholdsplattformenes bruk av maskinlæringsmodeller og nevrale nettverk påvirker ytringsfriheten og dets begrunnelser om demokrati, sannhet og fri meningsdannelse, skriver kronikkforfatterne.
Publisert Oppdatert

Denne teksten er et debatt­inn­legg. Inn­holdet i teksten uttrykker forfatterens egen mening.

Det er godt dokumentert at ulovlig innhold, desinformasjon, valgmanipulasjon og påvirkningsoperasjoner spres i stort omfang på globale plattformer. På X (tidligere Twitter, journ.anm.), Facebook og TikTok blir redaksjonelle nyheter prioritert ned eller filtrert bort, mens spredningen av desinformasjon forsterkes. Vi vet også at barn og unge blir eksponert for skadelig innhold via sosiale medier, og det pågår flere rettssaker om hvilke ansvar plattformene selv har for dette.

Kunstig intelligens har lagt føringer for det offentlige ordskiftet i mer enn 15 år. Men til tross for de samfunnsmessige risikoene, har verken forskere eller tilsynsmyndigheter hatt særlig innsyn i plattformenes data. Innsyn i maskinlæringsmodellene og algoritmene som bestemmer hva slags innhold brukerne eksponeres for, har vært fraværende. Dette kommer heldigvis til å endre seg.

EUs forordning for digitale tjenester (Digital Services Act — DSA) pålegger teknologigigantene å gi forskere og tilsynsmyndigheter innsyn i data og algoritmer. Dette er et grep som kommer til å bidra til en etterlengtet innsikt i hvordan globale plattformer påvirker det offentlige ordskiftet og demokratiet, og konsekvensene av deres forretningsmodell. Regjeringens satsing på forskning om kunstig intelligens gir en god anledning til økt forskning på hvordan innholdsplattformenes bruk av maskinlæringsmodeller og nevrale nettverk påvirker ytringsfriheten og dets begrunnelser om demokrati, sannhet og fri meningsdannelse.

I tillegg til pålegget om å gi tilgang til data og maskinlæringsmodellene, får sosiale medier og søkemotorer plikt til å publisere informasjon i sanntid om alle former for innholdsbegrensninger, og begrunnelsen for disse.

De største plattformene og søkemotorene må identifisere de systemiske risikoene, altså hvilke risikoer plattformens design har for individet, samfunnet og demokratiet. Fire former for systemisk risiko er nevnt i DSAs artikkel 34; spredning av ulovlig innhold, negativ innvirkning på grunnleggende rettigheter (personvern, ytringsfrihet, pressefrihet, barns rettigheter og forbrukervern), negativ innvirkning på den offentlige samtalen (blant annet gjennom desinformasjon) og innvirkning på kjønnsbasert vold, brukernes fysiske og psykiske helse. Når det gjelder det siste punktet, tillegges hensynet til mindreårige ekstra stor vekt. Plattformenes må publisere rapporter om hvilke tiltak som er gjort for å redusere risikoen. Rapportene skal revideres av en uavhengig revisor og må gjøres tilgjengelig for tilsynsmyndighetene.

Innsikt i plattformenes bruk av kunstig intelligens, som maskinlæringsmodeller og algoritmer, er viktig for en uavhengig vurdering av risikoene. Forskeren Inga Strümke og flere andre har etterlyst et algoritmetilsyn i Norge. Et slikt tilsyn, Senteret for algoritmisk transparens, er allerede etablert på europeisk nivå for å føre tilsyn med plattformenes bruk av kunstig intelligens. Dette gjelder blant annet målretting og algoritmisk forsterkning av innhold, bruk av persondata til å definere interessekategorier av brukere, og hvordan innhold modereres. Tilsyn med algoritmer er krevende, men svært viktig.

Norske forskere får tilgang til plattformenes data ved å søke om godkjenning via tilsynsmyndigheten — koordinatoren for digitale tjenester — som har hovedansvaret for håndhevingen av regelverket. Det er foreløpig ikke avklart hvilken myndighet som får dette ansvaret i Norge, men det er en rolle Medietilsynet gjerne påtar seg.

Medietilsynet har de siste årene sammen med andre europeiske mediemyndigheter bidratt aktivt i utformingen av DSA. For oss er tilsyn med teknologigigantene et prioritert område, og vi ønsker å bidra til en god implementering av det nye regelverket i Norge. Vi er opptatt av å bruke DSA til å sikre norske brukeres rettigheter på globale plattformer. Innsynsretten skal bidra positivt for norske forskere, og det skal bli enklere å dokumentere globale plattformers brudd på DSA, og sørge for at bruddene får konsekvenser.

DSA gir en unik mulighet til å forstå mer om hvordan verdens kraftigste informasjonsplattformer fungerer, hvordan de påvirker oss, hvilke risikoer vi eksponeres for og hvordan disse kan begrenses.

Powered by Labrador CMS