Annonse

DENNE ARTIKKELEN ER PRODUSERT OG FINANSIERT AV prio - LES MER.

Det israelske forsvaret har de siste årene utviklet et KI-verktøy som plukker ut mulige bombemål.

Israel bruker KI til bombing av Gaza: – Etisk svært problematisk

Kunstig intelligens har endret krigføring for alltid. Det krever et nytt etisk rammeverk for krig, mener forsker.

Publisert

«Det verste bomberegnet i moderne historie.»

Slik beskrives Israels krigføring i Gaza i avisa Financial Times. Krigen har pågått siden oktober i fjor. Målet skal være å utrydde Hamas etter organisasjonens massakre på sivile israelere. 

Men bombingen går aller hardest utover sivilbefolkningen.

De første fire månedene med krig har tatt livet av nær 30.000 mennesker. Over 40 prosent av dem skal ha vært barn, ifølge lokale helsemyndigheter.

Gregory M. Reichberg, forsker ved Institutt for fredsforskning (PRIO).

På bare en uke slapp Israel nesten like mange bomber over lille Gaza som USA slapp over store Afghanistan i løpet av et helt år, ifølge nettstedet Business Insider

Tall fra Verdensbanken viser at rundt halvparten av alle bolighus på Gaza er ødelagt i bomberegnet, ifølge en artikkel på The Times of Israel. Dermed er over én million mennesker blitt hjemløse.

Dette er en helt annen skala enn tidligere israelske kriger mot Gaza.

Hovedårsaken er kunstig intelligens (KI).

Evangeliet spyr ut bombemål

For mens bombingen av Gaza kan fremstå vilkårlig, på linje med de alliertes teppebombing av tyske byer mot slutten av andre verdenskrig, er dette i realiteten den mest målrettede bombekampanjen Israel noen gang har utført.

Det israelske forsvaret har de siste årene utviklet et system kalt Evangeliet. Det er et KI-verktøy som plukker ut mulige bombemål. Det være seg Hamas-krigere og -ledere, kommandosentraler eller utskytingsramper for raketter. Systemet kombinerer informasjon fra satellittbilder, mobilmeldinger, dronevideoer, seismiske data og andre kilder.

Verktøyet omtales som en fabrikk som spyr ut forslag til bombemål i høyt tempo. Så mens Israel under tidligere Gaza-kriger tidvis har sluppet opp for steder å bombe, er problemet nå det motsatte: De finner mange nye bombemål hele tiden.

KI-krig er mer enn drapsroboter

– Dette ville aldri vært mulig uten algoritmisk beslutningsstøtte.

Det sier Gregory M. Reichberg, forsker ved Institutt for fredsforskning (PRIO).

Det er nemlig dette man kaller denne typen KI-krig: algoritmisk krigføring.

For mens mange tenker på drapsroboter når de tenker på KI og krig, er dette noe som først og fremst hører fremtiden til.

Kunstig intelligens har imidlertid for lengst gjort sitt inntog på slagmarken. Særlig som verktøy for å samle enorme mengder informasjon og å peke ut potensielle angrepsmål.

Dette utløser etiske problemstillinger som Reichberg mener får altfor lite oppmerksomhet.

Trenger etiske normer

– Debatten om drapsroboter er viktig og nødvendig. Men den hopper bukk over den mye mer presserende problemstillingen som virkelig er her og nå, ikke i fremtiden. Vi har egentlig ikke drapsroboter ennå. Det vi derimot har, er denne automatiserte beslutningsstøtten som har vært i bruk en stund. Og dette kan ha alvorlige, negative etiske konsekvenser, sier han.

I en fersk vitenskapelig artikkel forsøker Reichberg sammen med flere kollegaer å løfte den etiske debatten rundt bruken av slike KI-systemer i krig opp og frem.

– Algoritmebasert beslutningsstøtte har blitt introdusert som svar på militære behov. I artikkelen skisserer vi disse behovene. For eksempel identifisering av bombemål. For det er først når vi forstår funksjonen til disse verktøyene, at vi kan utvikle etiske normer for bruken av dem, sier Reichberg.

– Etikk følger praksis.

Ukraina som forskningslaboratorium

Kunstig intelligens har allerede endret krigføring. Magasinet Time skriver at Ukraina siden den russiske invasjonen i 2022 her blitt verdens største forskningslaboratorium for algoritmisk krigføring. 

Nye selskaper har oppstått og vokst inn i himmelen basert på erfaringene de gjør seg på den ukrainske frontlinjen.

Det aller største av disse er amerikanske Palantir. Palantir-sjef Alex Karp har blitt en slags guruskikkelse innenfor denne verdenen. Han har uttalt at «kraften til avanserte algoritmiske krigføringssystemer er nå så stor at det tilsvarer å ha taktiske atomvåpen mot en motstander med bare konvensjonelle våpen».

Mennesker og maskiner

– Gaza viser mye tydeligere enn Ukraina hvor etisk problematiske slike systemer kan være, sier Reichberg.

Han peker på at ikke bare hjelper algoritmene Israel til å finne mange nye bombemål. De gir dem også svært gode data på hvor sivile gjemmer seg og hvor mange uskyldige liv som kan gå tapt i hvert enkelt angrep.

– Det er kanskje maskiner som identifiserer mulige bombemål. Men det er mennesker som både bestemmer hvor stor vekt disse dataene skal ha i beslutningsprosessen og som til slutt trykker på knappen, sier Reichberg.

– Maskiner kan ikke gi et automatisk svar for beslutninger på slagmarken. Uansett hvilket svar du får fra KI, må det evalueres og forstås i sammenheng av mennesker. Brukeren har en forpliktelse til å forsikre seg om at informasjonen ble innhentet på etisk vis og å veie den opp mot annen informasjon og andre hensyn.

En massedrapsmaskin

Mye tyder på at dette gjøres i for liten grad i Israels krigføring på Gaza.

Det israelsk-palestinske magasinet +972 har snakket med en rekke kilder med inngående kjennskap til Evangeliet. En tidligere etterretningsoffiser kaller systemet «en massedrapsmaskin». De som er satt til å bruke systemet, forteller at de ikke har mulighet til å ettergå informasjonen det spytter ut fordi alt skjer i et rasende høyt tempo.

Evangeliet skal ifølge det israelske forsvaret kalkulere det sannsynlige antallet sivile dødsfall som følge av et angrep.

Krigens folkerett åpner for at militære mål kan angripes selv om det vil medføre sivile tap. Men det krever at de to hensynene veies nøye mot hverandre før angrepet gjennomføres.

– Etisk sett svært problematisk

Dermed blir det interessant å se hvordan bruken av algoritmebasert beslutningsstøtte får konsekvenser for den juridiske vurderingen av Israels krigføring på Gaza, mener Reichberg.

– Det pålegger jo også Israel et større ansvar nettopp fordi de har mer informasjon til å ta bedre beslutninger, sier han.

Samtidig sitter Israel igjen med massevis av data som viser de konkrete regnestykkene som har blitt gjort i forkant av hvert enkelt angrep. Dette kan det tenkes de legger frem for å forsvare seg i en eventuell rettssak.

– Og kanskje kan det være nok til å frata dem ansvaret juridisk sett, sier Reichberg. 

– Men etisk sett er det svært problematisk.

Etikk må inn i forberedelsene

Reichberg og kollegaene tar derfor til orde for at etikk må tidligere inn i prosessen, inn i utformingen av KI-systemene, hva slags informasjon de henter inn og hvordan denne vektlegges.

– Etikk må komme inn i forberedelsesperioden, når du forbereder deg på kampsituasjoner og på hvilke beslutninger du må ta, sier han. 

For nå som KI-krigføring har blitt en del av virkeligheten, kan man ikke stikke hodet i sanden eller nøye seg med å fordømme det. Det må utvikles et etisk rammeverk for hvordan det utvikles og brukes.

– Det er utrolig viktig å forberede seg ved å forstå både fordelene og sårbarhetene ved systemet, hvilke supplerende informasjonskilder som trengs å tas med, grensene for systemet og hvordan det vil gjenspeile visse skjevheter. I øyeblikket vil du nemlig ikke ha tid, sier Reichberg.

– Vi må legge et godt grunnlag for at man skal kunne ta gode, etiske beslutninger. I øyeblikket.

Referanse: 

August Cole, Gregory M. Reichberg mfl.: Artificial Intelligence in Military Planning and Operations. PRIO Paper. Oslo: PRIO, 2024.

Powered by Labrador CMS