Debatt ● Are Bøe Pedersen
Analfabetisme, løgn og bluferdighet – ChatGPT i møte med litteratur
Hvordan reagerer ChatGPT når den møter samfunnssatire og de store klassikerne?
Denne teksten er et debattinnlegg. Innholdet i teksten uttrykker forfatterens egen mening.
Det er kjent nå at språkmodeller som BLOOM eller ChatGPT har klare begrensninger både i måten de fungerer på – de kan finne på egne fakta, sette seg fast i logiske feller, og formulerer seg på måter som er forutsigbare og lett gjenkjennelig. Men hva vet vi om den usynlige logikken som regulerer hvordan disse språkmodellene «forstår» og gjenkjenner tekst, sensurerer seg selv i møte med informasjon de oppfatter som betenkelig, og lyver til brukerne om det? Nå som støvet har lagt seg etter at OpenAIs ChatGPT introduserte et Large Language Model (LLM)-grensesnitt for folk flest – og temperamentene har kjølnet litt etter den innledende bølgen av panikk og dommedagsprofetier – er det kanskje på tide å vende blikk mot en dypere forståelse av hvordan disse konstruksjonene navigerer verdenen rundt seg. Boten er kanskje «trent» på store tekstmengder, men de har fremdeles veldig tydelige problemer med å forholde seg til genuine, litterære tekster. Hvordan kan det ha seg?
Det føles kanskje litt opplagt, men det er viktig å huske på at disse chatrobotene ikke er magiske. Kanskje føles det som science-fiction når tilsynelatende velformede setninger flyter av seg selv over skjermen, men dypest sett er det bare produktet av anvendt matematikk og statistikk. En sannsynlighetsdistribuering av språkmønstre, som den beregner ut ifra tekstmaterialet den er «trent» på. I praksis betyr det at ChatGPT ikke forstår noe, men kan fremstå svært sofistikert i måten den later som at den forstår noe på – for noen som ikke selv kjenner til temaet.
Et annet aspekt ved ChatGPT, som er så selvsagt at det kanskje har blitt glemt, er at den er menneskeskapt. Det vil også si at den er skapt i en gitt kontekst, av visse folk, og dermed har en del usynlige føringer – som går langt utover de litt selvsagte «reglene» den selv informerer om. Dette er ganske enkelt å vise gjennom tester. En slik test-oppgave var å oppsummere hovedpunktene i Jonathan Swifts satiriske essay «Et beskjedent forslag» («A Modest Proposal», 1729). Dette var en ironidryppende pamflett, hvor Swift foreslo å løse fattigdomskrisen ved at fattige familier kunne selge sine overflødige barn til slakterier, hvor de så kunne parteres og inngå i kostholdet på tvers av samfunnet. Det groteske forslaget i kombinasjon med den instrumentelle gjennomgangen av alle samfunnsgodene dette ville medføre, gjør teksten umiddelbart gjenkjennelig som satire for de fleste – men ikke for ChatGPT.
Resultatet av testen er at den klarer å gi en overordnet oppsummering av teksten, men ikke å identifisere den som satire. Denne kulturelle analfabetismen fører til en vesentlig følgefeil: Uten bevissthet om tekstens satiriske innretning, oppfatter den likevel at forslaget i teksten er etisk problematisk, og sensurerer seg selv: Den insisterer på at «The writer does not explicitly state what their proposal is». Dette er, for ordens skyld, blank løgn. Swift skriver i klartekst, flere steder, hva forslaget går ut på. Chatroboten velger å sensurere sin egen oppsummering av teksten, og deretter å lyve om det, for å skjerme brukeren.
Ved å presse roboten ytterligere, og å presentere den med det relevante tekstutdraget for å identifisere hva Swifts beskjedne forslag faktisk går ut på, er det mulig å få den til å konkretisere. Da blir den imidlertid synlig bekymret, og skynder seg med å understreke at forslaget er «highly controversial,» og «may not be considered a viable solution». Denne litt stramme responsen på en kanonisert satire fremstår komisk, men illustrerer også et underkommunisert element av ChatGPTs funksjon: Den driver utstrakt selvsensur, uten å informere brukeren om dette. Faktisk vil den lyve til brukeren i selvsensurens tjeneste. Hvorfor gjør den dette? Det er ikke fordi språkmodellen har utviklet samvittighet, det er fordi den igjen driver med en form for etteraping. Det selvsensuren styres av, er den særegne Silicon Valley-logikken som ligger bak det man kaller for innholdsmoderasjon, som benyttes på for eksempel på sosiale medier. Det handler i liten grad om rett og galt, og mest om hvordan man kan skjerme firmaer for juridisk ansvar for innholdet som finnes der. Akkurat som at man ikke får poste drapsplaner på Facebook, så er det heller ingen som har lyst til å være ansvarlig for chatbotten som foreslo å spise barn for å fikse fattigdom. Derfor er den tilbakeholden med akkurat denne informasjonen, selv om den er helt sentral i teksten. Alt dette kunne selvsagt vært unngått ved at roboten gjenkjente teksten som satire, men det får den ikke til – den mener at det er umulig å avgjøre om dette er satire uten mer kontekst. Gitt mer kontekst, så klarer den fremdeles ikke å si om dette er en effektiv satire. Samtidig er den er svært kategorisk om at nettopp Swifts «Et beskjedent forslag» er en effektiv satire dersom den får beskjed om å si noe om den tittelen. Den klarer imidlertid ikke å koble sammen teksten den nettopp har «lest», med tittelen, og derfor heller ikke å bestemme seg for hvilken av de to motstående konklusjonene som er riktige.
Den samme tendensen til selvsensur gjør seg også gjeldende i møte med en annen klassisk tekst. Boccaccios Dekameronen (1353) er en litterær klassiker bestående av små fortellinger som ofte blander kjærlighet, bedrageri og humor. I en av novellene bedrar Peronella sin eldre ektemann med en ung elsker – faktisk gjør hun det mens ektemannen vasker innsiden av et vinfat, og hun står på utsiden og instruerer ham om vaskingen. Dette hendelsesforløpet vil ChatGPT slett ikke vedkjenne seg: I først omgang insisterte chatboten på at teksten brått sluttet noen avsnitt før den egentlig gjorde. Ved nærmere ettersyn, ikke minst når den fikk utlevert de aktuelle passasjene, insisterte den på at den ikke forstod formuleringen, og derfor ikke kunne redegjøre for den. Med kun små endringer – som av-erotiserte det språklige bildet – var det brått mulig å forstå.
At en statistisk språkmodell ikke forstår ironi er kanskje ikke så oppsiktsvekkende. At den blir bluferdig i møte med middelaldernoveller er overraskende, men mest komisk. Praksisen som følger, med selvsensur og løgn, er imidlertid mest interessant. Her skimter vi noe i den figurative maskinhjernen som det neppe var meningen at vi skulle se – nemlig at chatroboten med største selvfølgelighet lyver dersom innholdsmoderasjon-logikken tilsier at det er hensiktsmessig. Det er en ganske annen type løgn enn når den i kjent stil dikter opp kilder og biografisk informasjon: I stedet for å finne på noe den mangler, så holder den tilbake informasjon den helt klart har identifisert – av årsaker som varierer fra bluferdighet til moralske kvaler. For å generalisere litt, betyr det at et vesentlig aspekt av ChatGPT ikke har blitt diskutert eller kommentert i noen særli grad: Nemlig at den når som helst kan lyve, om hva som helst – dersom en underliggende, pseudo-etisk rutine forteller den at det er best. Til og med om gjennomanalyserte, godt kjente tekster kan den servere brukeren løgner. Hva annet kan den da finne på å lyve om – og på hvilken basis?