Autonome våpen er en utvikling som bør kreve vår intellektuelle, moralske og politiske oppmerksomhet., skriver prorektor for forskning ved OsloMet, Morten Irgens i dette innlegget. Foto: Skjalg Bøhmer Vold

Skal våpen selv bestemme om de kan ta liv?

Våpenkappløp. Det viktigste våpenkappløpet i verden i dag er ikke atomvåpen. Det er kunstig intelligens, det er kunstig liv, og det er robotikk, skriver prorektor Morten Irgens ved OsloMet.

Publisert Oppdatert

OBS! Denne artikkelen er mer enn tre år gammel, og kan inneholde utdatert informasjon.

Jeg har et slags jubileum i år, for 30 år siden jeg begynte en karriere innenfor fagfeltet kunstig intelligens. I disse årene har fagets popularitet gått i bølger, men nå, takket være utviklingen i maskinell læring, maskinell resonnering, datatilgang, materialteknologi, robotteknologi, kunstig syn, og en lang rekke annet, ser vi stadig nye applikasjoner og systemer som vil være til stor gavn og nytte for oss som individer og som samfunn.

Innen området kunstig intelligens arbeider man med å utvikle programvare som kan resonnere og lære, for eksempel gjenkjenne ansikter, slå Magnus Carlsen i sjakk og ta kompliserte avgjørelser. Innen kunstig liv arbeider man med å utvikle programvare som har atferd og egenskaper som vi ser i naturen, for eksempel til fugler og insekter. I robotikk flytter man disse egenskapene inn i maskinvare og ut i den fysiske verden som vi mennesker bebor.

Ut i en verden av konflikter og krig. Det viktigste våpenkappløpet i verden i dag er ikke atomvåpen, det er kunstig intelligens, det er kunstig liv, og det er robotikk.

En rekke land arbeider nå med å utvikle dødelige autonome våpen. Og årsakene er de samme som for hver gang man tar i bruk ny teknologi i konfliktsøyemed: Å skape seg maktovertak og redusere egne og ikke-militære tap.

Dødelige autonome våpensystemer vil kunne initiere og eskalere konflikter uten menneskelig overveining, og med det destabilisere land og regioner og gi økt global usikkerhet.

Morten Irgens

Som alltid gjennom historien blir teknologi tatt i militært bruk. Noen få ganger gir det oss ikke bare en gradvis utvikling, men et dramatisk skifte. Vi står nå foran et slikt skifte, hvor teknologiutviklingen kan gjøre dødelige autonome våpen mulig.

Men våpen som har autonomi i kritiske funksjoner og kan velge og angripe mål uten meningsfull menneskelig kontroll representerer noe nytt, de har egenskaper som er ganske forskjellige fra andre våpen. Og dette nye har utfordrende sider ved seg, både pragmatiske, økonomiske, juridiske og moralske sider.

Rent pragmatisk så vil denne utviklingen få stor betydning for maktforhold, kriger og konflikter. Når soldater blir fjernet fra slagmarken vil terskelen for væpnet konflikt bli senket. Reduksjonen av antall mennesker som er invlovert i konflikten betyr også at fære trenger å være involvert i beslutninger om konflikten, som igjen kan gjøre demokratisk kontroll av konflikten vanskeligere.

Dødelige autonome våpensystemer vil kunne initiere og eskalere konflikter uten menneskelig overveining, og med det destabilisere land og regioner og gi økt global usikkerhet. Hendelser kan lettere føre til dominoeffekter som det internasjonale samfunnet verken har tekniske verktøy eller et globalt styringssystem for å håndtere. Det ligger også en risiko for at digitale våpensystemer kan hackes, en risiko som kan gi mer alvorlige konsekvenser når mennesket er fjernet fra kommandoløkken.

Men teknologiene vil ikke bare endre hvordan nasjonalstater strukturerer sine forsvar og agerer i konflikter. Disse teknologiene og disse våpnene er, i motsetning til kjernefysiske, kjemiske og biologiske våpen, ikke spesielt dyre eller vanskelige å transportere. Når teknologi faller i pris og blir lettere tilgjengelig, som teknologi jo gjør, vil ikke-statlige aktører få tak i dem og finne måter å bruke dem på. Vi har sett dette for alle teknologier, og de seneste årene i ISIS sin bruk av sosiale medier, kryptering, droner og cyberangrep.

Det pragmatiske perspektivet er altså at dødelige autonome våpen vil føre til en mindre stabil og farligere verden.

Men dødelige autonome våpen etablerer også en rekke juridiske utfordringer. For det første utfordrer de humanitærretten, som forutsetter at mennesker må holdes ansvarlig for handlinger som begås. Autonome våpensystemer gjør dette ansvaret uklart. For det abdre utfordrer de distinksjonsprinsippet – at man skal kunne skille mellom stridende og sivile. Det finnes ikke i dag, og heller ikke ioverskuelig framtid, teknologi som vil gjøre det mulig for autonome våpen å overholde dette prinsippet. Men dersom teknologien var god nok, ville vi ende tilbake i et pragmatisk problem: Autonome våpen som effektivt kan skille stridende og sivile vil reedusere terskelen for bruk.

Videre utfordrer dødelige autonome våpen menneskerettighetene og menneskets verdighet. Rundt dette ligger en rekke moralske og etiske problemstillinger.

Om det er fra pragmatisk, juridiske eller etiske perspektiver, bør beslutningen om å ta et menneskeliv aldri overlates til en maskin. Mange er enige, og ønsker et forbud mot dødelige autonome våpen, inkludert Europaparlamentet, 21 nobelprisvinnere, 28 land (inkludert EU-landet Østerrike), og 4 500 eksperter i kunstig intelligens og robotikk.

Og også mange i Norge. Et opprop https://lytt-til-oss.no/ til våre folkevalgte samler nå underskrifter fra norske akademikere og teknologer. Oppropet ber om at regjeringen ikke bare deltar i den pågående internasjonale innsatsen for en fremtid med sterke internasjonale normer, forskrifter og lover mot dødelige autonome våpen, men tar en tydelig posisjon og en ledende rolle.

Norge er et land med diplomatisk erfaring og kapasitet til å lede an i arbeidet for humanitær nedrustning og våpenkontroll. Et tydelig norsk standpunkt mot dødelige autonome våpen vil kunne være av internasjonal betydning og bidra til å stigmatisere og forebygge et nytt våpenkappløp.

Ta deg tid til å lese og reflektere over oppropet! Autonome våpen er en utvikling som bør kreve vår intellektuelle, moralske og politiske oppmerksomhet. De er også en Pandoras eske; og når esken først er åpnet, vil den være vanskelig å lukke. Det betyr at utviklingen krever vår oppmerksomhet i dag. Ikke i morgen.

Velkommen til vårt kommentarfelt
Logg inn med en Google-konto, eller ved å opprette en Commento-konto gjennom å trykke på Login under. (Det kan være behov for å oppdatere siden når man logger inn første gang)

Vi modererer debatten i etterkant og alle innlegg må signeres med fullt navn. Se Khronos debattregler her. God debatt!
Powered by Labrador CMS