Näkökulmia teknologiaan ja turvallisuuteen

Nuorten rauhanviikon kunniaksi Stop Killer Robots Finland ja Sadankomitea järjestivät 21.9.2021 robottiasewebinaarin, joka keskittyi tulevaisuuteen, teknologiaan ja turvallisuuteen. Koska tämän päivän päätökset vaikuttavat laajalti paitsi meihin, myös tuleviin sukupolviin, on tärkeää keskustella teknologisen kehityksen varjopuolista positiivisten mahdollisuuksien lisäksi. Yksi näistä varjopuolista liittyy robottiaseisiin eli autonomisiin asejärjestelmiin, jotka pystyvät itsenäisesti ilman ihmisen osallistumista hyökkäämään valitsemaansa kohteeseen.

Sodan oikeussäännöt ja automatisoitu voimankäyttö 

Webinaarin ensimmäisenä puhujana toimi Suomen Punaisen Ristin oikeudellinen neuvonantaja Jani Leino, joka työskentelee aseistariisunnan ja humanitaarisen oikeuden kysymysten parissa. Kansainvälisellä humanitaarisella oikeudella (International Humanitarian Law, IHL) tarkoitetaan valtioiden sopimia oikeussääntöjä ja velvoitteita, jotka suojelevat niitä ihmisryhmiä, jotka eivät osallistu aseellisiin konflikteihin. IHL myös rajoittaa sodankäynnin tapoja, joita taistelevien osapuolten on luvallista hyödyntää. 

“Tarkoitus ei ole ottaa kantaa siihen, saako nyrkkeilykehään mennä, vaan että jos ja kun sinne mennään, kaikilla tulisi olla samat säännöt. Lisäksi on suojeltava niitä, jotka eivät otteluun osallistu – mikä nykykontekstissa on osoittautunut suureksi haasteeksi”, Leino selittää. 

IHL rajoittaa aseiden käyttöä kolmen periaatteen mukaan: Erotteluperiaatteen mukaan hyväksyttäviä tuhovoiman kohteita ovat sotilaat, kun taas siviilejä kohtaan ei saa hyökätä. Suhteellisuusperiaate edellyttää, että sotatoimet saavat vaikuttaa siviileihin vain tietyssä määrin. 

“Aseen odotettu vaikutus siviilikohteisiin tietyssä tilanteessa, tiettynä hetkenä ja tietyssä paikassa tulee arvioida sotilaallisen hyödyn ja vahinkojen suhteen, sekä johdannaisvaikutusten näkökulmasta. Tarkkoja rajaviivoja suhteellisuusperiaatetta sovellettaessa ei ole, vaan jokainen tilanne on punnittava erikseen”, Leino sanoo. 

Kolmas tuhovoimaa rajoittava periaate IHL:n mukaan liittyy varotoimenpiteisiin, joiden avulla kahta edellistä periaatetta pyritään toteuttamaan. Näihin varotoimenpiteisiin kuuluu esimerkiksi uusien aseiden laillisuusarviointi. 

“Teknologian kehityksen johdosta myös asesopimukset vanhenevat ja niitä tulee siten päivittää, mikäli tietty ase tai sen käyttö asettaa uudenlaisia haasteita humanitaariselle oikeudelle. Näkisin, että kybersodan ja robottiaseiden osalta uudelle kansainväliselle säätelylle olisi tarvetta”, toteaa Leino.

Huolimatta valtioiden vastahakoisuudesta Punaisen Ristin kansainvälinen komitea kannustaa kaikkia tahoja neuvottelupöytiin sodan sääntöjen selkeyttämiseksi.

“Komitea on katsonut, että oikeudellisesti sitovalle sopimukselle on kiireellinen tarve. Emme voi odotella.” 

Leinon mukaan keskeisintä on, että kiellettäisiin asejärjestelmät, joiden toimivuutta ei voida ennakoida. Yksimielisyyteen pääseminen on kuitenkin osoittautunut haastavaksi, sillä rajat ennakoitavan ja ennakoimattoman välillä ovat epäselvät. 

“On asejärjestelmiä, joita teoriassa pystytään käyttämään sodan oikeussääntöjä kunnioittaen. Konfliktien ja kenttäkokemusten kautta kuitenkin tiedetään, että käytännössä näin ei ole. Rypäleaseet ovat tästä erinomainen esimerkki”, sanoo Leino.

Automatisoidun sodankäynnin vastuukysymykset on ratkaistu vasta, kun ollaan yhtä mieltä siitä, mille taholle vastuu mahdollisista virheistä ja väärinkäytöksistä kuuluu. Oleellista on, että vaikka tuhovoima olisi robotisoitu, vastuun kantaa aina ihminen. 

Koska IHL on kirjoitettu ihmisten sovellettavaksi, ihmisen roolia aseenkäytössä ei voida poistaa”, muistuttaa Leino.  

Sitä paitsi IHL edellyttää luotettavuutta ja ennakoitavuutta. Täysin autonomiset aseet eivät näitä kriteereitä täytä. Näin ollen ne ovat jo kiellettyjä olemassa olevan humanitaarisen oikeuden puitteessa.” 

Algoritminen syrjintä yhteiskunnallisena haasteena

Webinaarin toinen asiantuntijavieras, filosofian väitöskirjatutkija Otto Sahlgren on erikoistunut tekoälyn etiikkaan ja syrjinnän moraalifilosofiaan. Tällä hetkellä hän työskentelee algoritmista syrjintää käsittelevän tutkimushankkeen parissa. Sahlgren on ollut mukana myös aiemmassa robottiasewebinaarissa, jossa hän selventää algoritmisen syrjinnän perusperiaatteita. 

Syrjinnästä puhuttaessa on syytä erotella syrjinnän eri tyypit: Välitön syrjintä tarkoittaa, että tiettyä henkilöä tai ihmisryhmää kohdellaan huonommin kuin muita jonkun henkilökohtaisen ominaisuuden takia. Välillisestä syrjinnästä puhuttaessa näennäisesti neutraali sääntö tai käytäntö saattaa tietyn henkilön tai ihmisryhmän muita epäedullisempaan asemaan jonkun henkilökohtaisen ominaisuuden perusteella. Suomen yhdenvertaisuuslainsäädäntö velvoittaa, että viranomaisten, koulutuksentarjoajien ja työnantajien täytyy myös aktiivisesti edistää yhdenvertaisuuden toteutumista. 

“Puhutaan myös moniperusteisesta syrjinnästä. Termi viittaa syrjivään kohteluun kahden tai useamman eri syrjintäperusteen johdosta”, Sahlgren kertoo.

Algoritminen syrjintä toteutuu pääsääntöisesti kahden eri toimintaketjun kautta: Syrjintään voivat johtaa muun muassa mittaus- ja suunnitteluvirheet, mutta myös tapaukset, joissa tarkka ja edustava malli heijastaa yhteiskunnassa esiintyvää rakenteellista syrjintää tai eriarvoisuutta.

“Edustava malli epätäydellisestä maailmasta heijastaa rakenteellista syrjintää. Vinoumat eivät siis aina johdu koodaajien virheistä”, muistuttaa Sahlgren.

Kuten epätasa-arvolla yleensäkin, algoritmisella syrjinnällä voi olla tuhoisia seurauksia huolimatta siitä, vinoutuuko algoritmi epäedustavan datan vai ihmisen omien stereotypioiden johdosta. Selitettävyys on kuitenkin oleellinen piirre tekoälyjärjestelmän luotettavuuden, turvallisuuden ja reiluuden näkökulmista.

“Meillä on oikeus tietää, millä perusteella meitä on kohdeltu – myös kun päätöksenteosta vastaa algoritmi”, Sahlgren sanoo.

“Monesti on kuitenkin vaikea selittää, miksi tekoäly käyttäytyy tietyllä tavalla tai mikä on päätösten taustalogiikka. Puhutaan mustista laatikoista: syöte menee sisään, vaste tulee ulos ja lopputulema on mitä on.”

Tekoälyä hyödyntävät autonomiset asejärjestelmätkään eivät ole vapaita ennakkoluuloista. Ne saattavat tehdä päätöksiä epäedustavan datan perusteella, jolloin rakenteellinen epätasa-arvo heijastuu niiden toimintaan. Automaation lisääntyminen voi johtaa siihen, että päätöksiä tehdään perustuen yhä hatarampiin käsityksiin niiden seurauksista. Jos ihmisen ymmärrys tekoälyn toiminnasta hämärtyy, heikkenee myös kyky ennustaa lopullisia seurauksia.

Robottiaseiden tapauksessa ennakoitavuuden arviointi etukäteen ja virheistä oppiminen jälkikäteen on erityisen haasteellista. Kun sotaa käydään etäisyyksien päästä – vieläpä ilman ihmisen kontrollia – on vaikea tietää, mitä ratkaisuja voidaan pitää oikeina. 

“Vinoutuneet algoritmit ovat jo johtaneet erheellisiin pidätyksiin, mutta virheitä on onneksi onnistuttu paljastamaan tutkinnoissa. Mutta jos kohde tapetaan virheellisin perustein, päätös on peruuttamaton”, muistuttaa Sahlgren.

Tutkimuspuolella on onneksi kehitetty erinäisiä teknisiä keinoja syrjintäriskien tunnistamiseen ja ehkäisemiseen. Esimerkkeinä tästä ovat erilaiset tilastolliset mittarit, sekä algoritmien ja niiden hyödyntämän datan muokkaus. 

Edellä mainitut toimenpiteet vaativat kuitenkin usein lisää dataa, jonka kerääminen voi puolestaan olla hankalaa johtuen läpinäkyvyyden puutteesta globaalien tuotantoketjujen ja muiden toimijoiden välillä. Tästä syystä syrjintäriskien hallintaa ei tule jättää yksinomaan yksityisen sektorin toimijoiden omalle vastuulle.

“Viranomaisyhteistyön lisääminen sekä yhdenvertaisuus- ja tietosuojalainsäädäntöjen vaatimusten selkeyttäminen ovat tärkeitä keinoja edistää syrjinnän ehkäisyä tekoälyn käytössä”, toteaa Sahlgren.  

“Ennen kaikkea tarvitaan aktiivisia, poliittisia toimia rakenteellisen syrjinnän ja epätasa-arvon purkamiseksi, sekä avoimuutta ja läpinäkyvyyttä kehitettävien ja käytettyjen tekoälyjärjestelmien suhteen.”


Kirjoittaja on kampanjan aktiivi Riikka Aarnos, joka toimi myös webinaarin juontajana. 

Tilaisuudessa Sadankomitean puheenjohtaja ja Stop Killer Robots Finland -verkoston koordinaattori Kaisu Kinnunen kertoi, mitä täysin autonomiset asejärjestelmät ovat, sekä esitteli verkoston toimintaa.

Humanitaarisen oikeuden teemoista puhui Suomen Punaisen Ristin oikeudellinen neuvonantaja Jani Leino.

Filosofian väitöskirjatutkija Otto Sahlgren Tampereen yliopistosta kertoi algoritmisesta syrjinnästä ja sen johdannaisvaikutuksista. 

Tallenteen pääset katsomaan Sadankomitean Youtube-kanavalta.