Slik beskrives Israels krigføring i Gaza i avisa Financial Times. Krigen har pågått siden oktober i fjor. Målet skal være å utrydde Hamas etter organisasjonens massakre på sivile israelere.
Men bombingen går aller hardest utover sivilbefolkningen.
De første fire månedene med krig har tatt livet av nær 30.000 mennesker. Over 40 prosent av dem skal ha vært barn, ifølge lokale helsemyndigheter.
På bare en uke slapp Israel nesten like mange bomber over lille Gaza som USA slapp over store Afghanistan i løpet av et helt år, ifølge nettstedet Business Insider.
Tall fra Verdensbanken viser at rundt halvparten av alle bolighus på Gaza er ødelagt i bomberegnet, ifølge en artikkel på The Times of Israel. Dermed er over én million mennesker blitt hjemløse.
Dette er en helt annen skala enn tidligere israelske kriger mot Gaza.
Hovedårsaken er kunstig intelligens (KI).
Evangeliet spyr ut bombemål
For
mens bombingen av Gaza kan fremstå vilkårlig, på linje med de alliertes teppebombing av tyske byer mot slutten av andre
verdenskrig, er dette i realiteten den mest målrettede bombekampanjen Israel
noen gang har utført.
Det
israelske forsvaret har de siste årene utviklet et system kalt Evangeliet. Det er et KI-verktøy som plukker ut
mulige bombemål. Det være seg Hamas-krigere og -ledere, kommandosentraler eller utskytingsramper for raketter. Systemet kombinerer informasjon fra satellittbilder, mobilmeldinger,
dronevideoer, seismiske data og andre kilder.
Verktøyet
omtales som en fabrikk som spyr ut forslag til bombemål i høyt tempo. Så mens
Israel under tidligere Gaza-kriger tidvis har sluppet opp for steder å bombe,
er problemet nå det motsatte: De finner mange nye bombemål hele tiden.
KI-krig
er mer enn drapsroboter
–
Dette ville aldri vært mulig uten algoritmisk beslutningsstøtte.
Det
sier Gregory M. Reichberg, forsker ved Institutt for fredsforskning (PRIO).
Det
er nemlig dette man kaller denne typen KI-krig: algoritmisk krigføring.
For
mens mange tenker på drapsroboter når de tenker på KI og krig, er dette noe
som først og fremst hører fremtiden til.
Kunstig
intelligens har imidlertid for lengst gjort sitt inntog på slagmarken. Særlig
som verktøy for å samle enorme mengder informasjon og å peke ut potensielle
angrepsmål.
Annonse
Dette
utløser etiske problemstillinger som Reichberg mener får altfor lite oppmerksomhet.
Trenger
etiske normer
–
Debatten om drapsroboter er viktig og nødvendig. Men den hopper bukk over den
mye mer presserende
problemstillingen som virkelig er her og nå, ikke i fremtiden. Vi har egentlig ikke
drapsroboter ennå. Det vi derimot har, er denne automatiserte beslutningsstøtten som har vært i bruk en stund. Og dette kan ha alvorlige, negative etiske konsekvenser,
sier han.
I en fersk vitenskapelig artikkel forsøker Reichberg sammen med
flere kollegaer å løfte den etiske debatten rundt bruken av slike KI-systemer i
krig opp og frem.
–
Algoritmebasert
beslutningsstøtte har blitt introdusert som svar på militære behov. I artikkelen skisserer vi disse behovene. For eksempel identifisering av bombemål. For det er først når vi forstår
funksjonen til disse verktøyene, at vi kan utvikle etiske normer for bruken av
dem, sier Reichberg.
– Etikk følger praksis.
Ukraina som forskningslaboratorium
Kunstig intelligens har allerede endret krigføring. Magasinet Time skriver at Ukraina siden den russiske invasjonen i 2022 her blitt verdens største forskningslaboratorium for
algoritmisk krigføring.
Nye
selskaper har oppstått og vokst inn i himmelen basert på erfaringene de gjør
seg på den ukrainske frontlinjen.
Det aller største av disse er amerikanske Palantir. Palantir-sjef Alex Karp har blitt en slags guruskikkelse innenfor denne
verdenen. Han har uttalt at
«kraften til avanserte algoritmiske krigføringssystemer er nå så stor at det
tilsvarer å ha taktiske atomvåpen mot en motstander med bare konvensjonelle
våpen».
Mennesker og maskiner
– Gaza viser mye tydeligere enn Ukraina hvor etisk
problematiske slike systemer kan være, sier Reichberg.
Annonse
Han
peker på at ikke bare hjelper algoritmene Israel til å finne mange nye
bombemål. De gir dem også svært gode data på hvor sivile gjemmer seg og hvor
mange uskyldige liv som kan gå tapt i hvert enkelt angrep.
–
Det er kanskje maskiner som identifiserer mulige bombemål. Men det er mennesker
som både bestemmer hvor stor vekt disse dataene skal ha i beslutningsprosessen
og som til slutt trykker på knappen, sier Reichberg.
–
Maskiner kan ikke gi et automatisk svar for beslutninger på slagmarken. Uansett
hvilket svar du får fra KI, må det evalueres og forstås i sammenheng av
mennesker. Brukeren har en forpliktelse til å forsikre seg om at informasjonen
ble innhentet på etisk vis og å veie den opp mot annen informasjon og andre
hensyn.
En
massedrapsmaskin
Mye
tyder på at dette gjøres i for liten grad i Israels krigføring på Gaza.
Det
israelsk-palestinske magasinet +972 har snakket med en rekke kilder
med inngående kjennskap til Evangeliet. En tidligere etterretningsoffiser
kaller systemet «en massedrapsmaskin». De som er satt til å bruke systemet, forteller at de ikke har mulighet til å ettergå informasjonen det spytter ut fordi alt skjer
i et rasende høyt tempo.
Evangeliet skal ifølge det israelske forsvaret kalkulere det sannsynlige antallet sivile
dødsfall som følge av et angrep.
Krigens folkerett
åpner for at militære mål kan angripes selv om det vil medføre sivile tap. Men
det krever at de to hensynene veies nøye mot hverandre før angrepet
gjennomføres.
–
Etisk sett svært problematisk
Dermed
blir det interessant å se hvordan bruken av algoritmebasert beslutningsstøtte
får konsekvenser for den juridiske vurderingen av Israels krigføring på Gaza,
mener Reichberg.
–
Det pålegger jo også Israel et større ansvar nettopp fordi de har mer informasjon til
å ta bedre beslutninger, sier han.
Samtidig
sitter Israel igjen med massevis av data som viser de konkrete regnestykkene
som har blitt gjort i forkant av hvert enkelt angrep. Dette kan det tenkes de
legger frem for å forsvare seg i en eventuell rettssak.
Annonse
–
Og kanskje kan det være nok til å frata dem ansvaret juridisk sett, sier
Reichberg.
–
Men etisk sett er det svært problematisk.
Etikk
må inn i forberedelsene
Reichberg og kollegaene tar derfor til orde for at etikk må
tidligere inn i prosessen, inn i utformingen av KI-systemene, hva slags
informasjon de henter inn og hvordan denne vektlegges.
–
Etikk må komme inn i forberedelsesperioden, når du forbereder deg på
kampsituasjoner og på hvilke beslutninger du må ta, sier han.
For
nå som KI-krigføring har blitt en del av virkeligheten, kan man ikke stikke
hodet i sanden eller nøye seg med å fordømme det. Det må utvikles et etisk
rammeverk for hvordan det utvikles og brukes.
–
Det er utrolig viktig å forberede seg ved å forstå både fordelene og
sårbarhetene ved systemet, hvilke supplerende informasjonskilder som trengs å
tas med, grensene for systemet og hvordan det vil gjenspeile visse skjevheter. I øyeblikket vil du nemlig ikke ha tid, sier Reichberg.
–
Vi må legge et godt grunnlag for at man skal kunne ta gode, etiske beslutninger. I
øyeblikket.