Sukupuolten tasa-arvo ja tappajarobotit

Tapamme tarkastella konflikteja, väkivaltaa ja aseita perustuu vahvasti omaksumiimme sukupuolinormeihin ja yhteiskunnan patriarkaalisiin valtarakenteisiin. Riskinä on, että autonomisten asejärjestelmien käyttöönotto vahvistaisi entisestään vanhanaikaisia käsityksiämme miehisyyden malleista sekä militarisoituneesta maskuliinisuudesta. Autonominen hyökkäyskohteiden profilointi ja tähän prosessiin vahvasti liittyvä algoritminen syrjintä voivat paitsi heikentää sukupuolten välistä tasa-arvoa myös lisätä sukupuolittunutta väkivaltaa konfliktitilanteissa.

Tasa-arvokysymykset ovat olennainen osa aseidenriisuntaa. Feministinen lähestymistapa aseidenriisunnan ja turvallisuuspolitiikan teemoihin edistää naisten, lasten, vähemmistöjen, pakolaisten ja muiden marginalisoitujen ihmisten suojelua sota- ja konfliktitilanteissa. Tasa-arvonäkökulmasta autonomiset asejärjestelmät kieltävä sopimus olisi suuri voitto: tappajarobottien kieltäminen ennen niiden käyttöönottoa ja leviämistä estäisi aseteollisuuden haitallisen kehityksen nyt ja tulevaisuudessa. Näin voidaan varmistaa, että edistyvä teknologia hyödyttää ja kehittää ihmiskuntaa vaarantamisen ja tuhoamisen sijasta.

Miten tasa-arvokysymykset ja autonomiset asejärjestelmät liittyvät toisiinsa?

Myös autonomiset asejärjestelmät voivat syyllistyä sukupuolittuneeseen väkivaltaan, sillä ne valitsevat ja tuhoavat hyökkäyskohteensa sen datan perusteella, jolla niitä on alun perin opetettu. Olemme jo nähneet käytännössä, miten sukupuolittunut kohteiden profilointi vaikuttaa puoliautonomisten aseiden, kuten aseistettujen droonien, toimintaan. Nämä asejärjestelmät on opetettu valikoimaan uhrinsa ulkonäön perusteella, ja siksi ne kohdistavatkin hyökkäyksensä erityisesti ”armeijaikäisiin miehiin”. Harhakäsitykset siitä, että sotilastaistelijat ovat lähtökohtaisesti miespuolisia, vahvistaa vahingollisia sukupuolinormeja ja ylläpitää mielikuvaa miehisestä väkivallasta. 

Autonomisten asejärjestelmien käyttö vahvistaisi entisestään vanhanaikaisia käsityksiämme miehisyyden malleista ja militarisoituneesta maskuliinisuudesta.

Yleinen argumentti tappajarobottien puolesta on, että ihmissotilaat kärsivät ”vioista”, jotka autonomisilta asejärjestelmiltä puuttuvat: robottiaseet eivät tunne nälkää, janoa, väsymystä, kipua, pelkoa tai vihaa, eivätkä ne toimi itsepuolustustarkoituksissa tai tee hätiköityjä päätöksiä hetken mielijohteesta. Usein kuitenkin unohtuu, että tappajarobotit eivät myöskään kykene inhimilliseen hyvään. Autonomisella asejärjestelmällä ei ole omaatuntoa, empatiakykyä tai moraalista harkintakykyä. Ne ovat elottomia, eivätkä tunnusta ihmisarvoa tai ymmärrä ihmisoikeuksien merkitystä.

Konfliktitilanteissa sotilaat joutuvat jatkuvasti tekemään haastavia eettisiä ja moraalisia päätöksiä. Tässä päätöksenteossa tarvitaan paitsi monimutkaisen ongelmanratkaisun taitoja, myös inhimillisiä tunteita ja arvostelukykyä. Jos tekoälylle annetaan valta päättää elämän ja kuoleman kysymyksistä, sodankäynti tulee muuttumaan raaemmaksi ja epäinhimillisemmäksi kuin koskaan aiemmin. Täysin autonomisten asejärjestelmien kehitys ja käyttäminen vahvistaisi sotilaallisen väkivallan patriarkaalisia rakenteita. 

Robottiaseet kykenisivät sensoriteknologiaa hyödyntäen valitsemaan kohteensa pelkkien ulkoisten ominaisuuksien perusteella ja tuhoamaan sen ilman ihmisen hallintaa. Tämä pelkistäisi ihmiset datakappaleiksi ja koodinpätkiksi. Mikä vaarallisempaa, tappajarobotit eivät ole vapaita inhimillisistä ennakkoluuloista, vaan pikemminkin toimivat niiden pohjalta.

Algoritmisten vinoumien takia kehittyvät koneälyteknologiat, kuten kasvojen- ja äänentunnistus, havaitsevat ja tunnistavat parhaiten valkoihoisia miehiä. Sen sijaan tummaihoisten, naisten ja vammaisten tunnistamisessa on edelleen suuria puutteita. Täysin autonomisten asejärjestelmien käyttöönotto asettaisi todennäköisesti suurempaan vaaraan yllä mainittujen ihmisryhmien lisäksi kaikki muutkin henkilöt, jotka eivät sovi ohjelmoituun normiin.

Robottiaseiden käyttö asettaisi suurempaan vaaraan kaikki, jotka eivät sovi ohjelmoituun normiin.

Seksuaalinen väkivalta on osa konflikteja kaikkialla maailmassa. Sitä käytetään aseena konflikteissa muun muassa kauhun herättämiseksi ja vastarinnan horjuttamiseksi. On hyvin epätodennäköistä, että tappajarobottien käyttöönotto pysäyttäisi tämän ihmisoikeusloukkausten jatkumon. Tappajarobotit eivät kyseenalaista käskyä raiskata, jos ne on ohjelmoitu tekemään niin. Koska näillä järjestelmillä ei ole omaatuntoa, empatiakykyä tai ymmärrystä seksuaalisen väkivallan vaikutuksista uhriin, ne myös tottelevat ohjelmoitua raiskauskäskyä suuremmalla todennäköisyydellä kuin ihmissotilaat. 

Tasa-arvoisen tulevaisuuden turvaaminen

Perinteiset ulko- ja turvallisuuspoliittiset näkemykset ovat usein yksipuolisia, sillä ne painottavat erityisesti sotilaallista voimaa, ylläpitäen samalla ihmisoikeusloukkausten jatkumoa ja väkivallan patriarkaalisia rakenteita. Viime vuosina pieni, mutta jatkuvasti kasvava joukko eri maiden hallituksia onkin alkanut soveltaa sukupuoli- ja tasa-arvonäkökulmaa politiikassaan, vaikkakin vaihtelevassa määrin ja monin eri tavoin. Näihin maihin lukeutuvat muun muassa Kanada, Ranska, Meksiko ja Ruotsi. 

Centre for Feminist Foreign Policy mukaan feministinen ulkopolitiikka tarjoaa syvällisemmän ja laaja-alaisemman vaihtoehdon tarkastella yhteiskunnan patriarkaalisia, kapitalistisia, rasistisia ja militaristisia rakenteita. Se tuo esiin alisteisessa asemassa elävien ihmisten arkikokemukset, tarpeet ja turvallisuuden, ja tarjoaa uusia näkökulmia globaaleihin sodan ja rauhan kysymyksiin. 

Aseidenriisunnan ja turvallisuuspolitiikan teemoja on tarkasteltava erityisesti niiden ihmisten silmin, joiden elämään väkivalta vaikuttaa kaikista vahvimmin. Tulevaisuuden ihmisoikeusloukkaukset voidaan estää tämän päivän päätöksillä. Autonomiset asejärjestelmien kehittäminen ja käyttöönotto on kiellettävä ensi tilassa. 


Teksti on mukaillen käännetty kansainvälisen Campaign to Stop Killer Robots -verkoston verkkosivuilta. Suomen verkoston toimintaa voit seurata @stopkillerrobotsFI tai @KillerRobotsFI.