Abbonamento 790/anno o 190/trimestre

Gioco di droni

Mentre la lotta contro le armi nucleari ha sempre ricevuto molta copertura mediatica, la lotta contro i robot assassini procede tranquillamente. 




(QUESTO ARTICOLO È TRADOTTO DA Google dal norvegese)

Nel dicembre dello scorso anno, gli stati parti della Convenzione delle Nazioni Unite sulla proibizione o la limitazione dell'uso di determinate armi convenzionali (CCW), inclusa la Norvegia, hanno deciso di avviare colloqui formali sui sistemi d'arma autonomi, dopo tre anni di riunioni informali di esperti. La speranza di molte organizzazioni, e di un numero crescente di paesi, è che questi colloqui possano portare a un divieto internazionale di questo tipo di armi.

Un sistema d'arma completamente autonomo è un sistema d'arma in grado di selezionare e attaccare bersagli senza l'intervento umano diretto. L'autonomia, anche nei sistemi d'arma, non è una quantità costante, ma uno spettro che va da nessuna alla piena autonomia, e diverse armi hanno già un certo grado di autonomia. Un esempio è la torretta cannone sudcoreana Samsung SGR-1, che presidia la zona demilitarizzata tra la Corea del Nord e la Corea del Sud. La torre del cannone è stata sviluppata per essere in grado di rilevare un intruso e sparargli automaticamente, ma per il momento deve avere l'approvazione umana per sparare. La domanda più importante per CCW è se un sistema d'arma dovrebbe essere in grado di prendere decisioni per attaccare obiettivi, senza il controllo umano su questa decisione.

Pentagons nylige, vellykkede test av en sverm av mikrodronen Perdix anses av mange som et viktig skritt på veien mot utvikling av fullt autonome våpensystemer. Dronene er utviklet for å operere i en koordinert sverm og følge hverandres bevegelser og handlinger, og er i stand til å ta kollektive beslutninger og reparere hverandre. Mikrodronene er ikke mer enn 15 centimeter lange, men en dronesverm vil kunne overvelde et militært måls forsvarssystemer.

Disumanizzante. Det er mange grunner til at denne typen våpensystemer vil være problematiske. For eksempel er det svært vanskelig å se for seg at et autonomt våpen vil være i stand til å respektere folkeretten. Dette innebærer å kunne skille mellom stridende og sivile og forstå når en soldat er såret eller overgir seg, og krever evne til å tolke kroppsspråk, ansiktsuttrykk og toneleie i komplekse kontekster. I tillegg må et slikt våpensystem være i stand til å vurdere hvorvidt den militære fordelen som er oppnådd med et angrep, kan rettferdiggjøre de forventede skadene på sivile forårsaket av angrepet. Det er lite trolig at et våpensystem vil kunne skille mellom legitime og illegitime mål, spesielt i moderne konflikter hvor parter opererer uten uniformering og med skjult identitet. Folkerettens proporsjonalitetsprinsipp krever at angriperen må kunne vurdere et angreps innvirkning på alle personer, enheter og objekter i området rundt målet. En vurdering av militær fordel er vanskelig å programmere, blant annet fordi den er svært kontekstavhengig og må avgjøres på grunnlag av hver enkelt situasjon.

Selv om et autonomt våpensystem mot formodning skulle være i stand til å foreta gode vurderinger av hva som til enhver tid utgjør militær fordel, samt mulige skader på illegitime mål, er det usannsynlig at det skal kunne balansere disse to opp mot hverandre. Denne typen analyser avhenger av en type dømmekraft det er vanskelig å se for seg programmert i en maskin.

Skulle et autonomt våpen bli brukt, og begå et brudd på folkeretten eller internasjonale menneskerettigheter, er det uklart om noen vil kunne stilles rettslig til ansvar for et slikt overgrep.

Det er også et viktig moralsk spørsmål hvorvidt det er greit å delegere beslutninger om å ta liv til våpen og maskiner. En maskin kan ikke gjøre moralske overveielser knyttet til en beslutning om å ta et liv, og mangler medlidenhet, empati og forståelse og respekt for menneskelig verdighet. Mange, inkludert FNs spesialrapportør for utenomrettslige, summariske eller vilkårlige henrettelser Christof Heyns, har uttrykt bekymring for at bruk av denne typen våpen vil medføre en ytterligere dehumanisering av krigføring.

Det er vanskelig å se for seg at et autonomt våpen vil være i stand til å respektere folkeretten.

Uforutsigbart. Det er mange land som har utviklet – og arbeider for å utvikle -våpensystemer med ulike grader av autonomi. Long Range Anti Ship Missile, som er utviklet av Lockheed Martin, kan autonomt fly til et forhåndsdefinert område, unngå hindre som dukker opp på veien, og så velge ut og angripe ett av flere skip på bestemmelsesstedet. Israels Harpy-drone kan patruljere et definert luftrom i lange perioder på leting etter radarsignaler, for deretter autonomt å angripe kilden for signalet. Den britiske Taranis-dronen utvikles for overvåknings- og angrepsoperasjoner under menneskelig kontroll, men BAE Systems, som bygger dronen, hevder de også utvikler noen fullt autonome funksjoner. Det kinesiske Sharp Claw-kjøretøyet kan væpnes og operere autonomt, mens Russlands stridsvogn URP-01G og robotsoldat Iron Man er andre eksempler på slike våpen.

Blant argumentene for å tillate denne typen våpen nevnes ofte de militære fordelene – blant annet en høy grad av presisjon, rask reaksjonstid, lavere kostander enn menneskelige soldater, og mulighet til å operere uten etablerte kommunikasjonslinjer.

Noen av de faktorene som trekkes frem som militære fordeler, kan imidlertid utgjøre en trussel. En svært lav reaksjonstid kan gjøre at mennesker ikke har mulighet til å få med seg, og kontrollere, et våpensystems handlinger, og en konflikt eller trusselsituasjon kan raskt komme ut av kontroll og eskalere som et resultat av slike systemers handlinger og motreaksjoner. Et autonomt våpen, spesielt et som er involvert i kamp mot et annet autonomt våpen, vil måtte tilpasse og endre sin adferd raskt for å unngå tap som et resultat av forutsigbarhet. Dette er en helt nødvendig tilpasningsdyktighet, som også skaper uforutsigbarhet og usikkerhet, og det er forventet at komplekse systemer med en høy grad av autonomi vil opptre på uforutsette måter. Spesielt systemer med evne til selvlæring vil kunne utvikle seg på måter det er umulig å forutse, og to typer systemer på ulike sider i en konflikt vil kunne interagere med hverandre på uventede måter. I tillegg kan en programvareoppdatering endre hele den strategiske balansen i løpet av minutter. Det er også fare for at utviklingen av slike systemer vil føre til et rustningskappløp, med ytterligere negative konsekvenser for stabilitet og spenningsnivå. Teknologien vil trolig spre seg fort fra mer teknologisk avanserte land, både til andre land og til ikke-statlige væpnede grupper og terrororganisasjoner.

Ta bladet fra munnen. Et internasjonalt forbud vil gi standardiserte internasjonale regler med mindre tolkningsrom, og kan – ved også å forby utvikling og produksjon – begrense spredning til stater og grupper som ikke bryr seg om folkeretten. Et eksplisitt forbud vil i tillegg bidra til å stigmatisere bruken av slike våpensystemer også blant stater som ikke ratifiserer et eventuelt forbud.

Foreløpig har Norge vært forsiktig med å uttale seg om et internasjonalt forbud. Nå er det på tide å ta bladet fra munnen. Autonomi er en teknologi som har mange positive bruksområder, men som også kan kombineres med nær sagt alle våpensystemer. Verden er ikke tjent med et autonomt masseødeleggelsesvåpen. Det er kortsiktig og svært lite konstruktivt dersom Norge ikke deltar aktivt i denne prosessen og bidrar til fremgang i internasjonalt arbeid for nedrustning og våpenkontroll.

Potrebbe piacerti anche