(Teko)älykkäät puolustusvoimat?

Puolustusvoimien tutkimusjohtaja Jyri Kosola kommentoi Helsingin Sanomissa (HS 13.10.) tekoälyn asemaa Suomen puolustusvoimissa. Tekoälyloikkaa ei kuulemma ole tulossa ja ”muutosaskel on hidas”. Toisaalta kymmenen vuoden kuluttua asiat ovat Kosolan mukaan eri lailla, ”mullistavan ilmiön” mittasuhteissa. Ristiriita on ilmeinen ja herättää kysymyksiä.

Eikö jo viimeisten vuosikymmenien huimaava teknologiakehitys todista, että emme pysty arvioimaan, mitä keksitään ja ei keksitä seuraavan kymmenen vuoden aikana? Kosola sanoo, että puolustusvoimien käytössä ovat nykyään myös avoimen lähdekoodin algoritmit ja nopeasti saataville tuleva siviilitekniikka. Näiden kehitysvauhti ei ole sodankäynnin eksperttien hallinnassa. Olisi siis edesvastuutonta ennustaa hidasta muutosta etenkin, kun tekoälyn avustamana voidaan saada entistä pahempaa tuhoa aikaan ennen kuin kansainvälinen yhteisö ehtii kommentoimaan, saati reagoimaan.

HS:n mukaan Kosola ei myöskään ole kovinkaan huolissaan tekoälyn vaikutuksista humanitaarisen lain rikkomiskynnyksen madaltumiseen. ”Olen yrittänyt sanoa, että kansainväliset sodan lait pätevät riippumatta siitä, mitä tekniikkaa on käytetty. Sotajoukolla on aina johtaja ja johtajalla vastuu. Se ei muutu.”

Uudet autonomiset asejärjestelmät ampuvat itsensä vastuukysymyksissä sodankäynnin sääntöjen ulottumattomiin. Vastaavaa itseään ohjaavaa tekniikkaa ei osattu kuvitellakaan, kun säädöksiä luonnosteltiin Genevessä vuonna 1949. Toisin kuin Kosola väittää, vastuuketju tulee väistämättä hämärtymään: jos järjestelmä on täysin autonominen, jo sen määritelmän perusteella vastuu päätöksenteosta siirtyy koneelle itselleen.

Kosola ”pitää tekoälyä sotatilanteessa ihmistä turvallisempana”. Totta on, että robottiaseet eivät voi tuntea kostonhimoa, mutta toisaalta niiltä puuttuu myös inhimillinen kyky ihmiselämän arvostamiseen. Lisäksi, algoritmit ovat aina alun perin ihmisen kirjoittamia, ja sisältävät siten erheitä ja asenteellisia vääristymiä (eng. bias), sekä riskin ennakoitavissa olemattomista vioista, joilla voi olla hyvinkin vakavia seuraamuksia. Oikeaan sotatilanteeseen liittyy lukemattomia muuttujia. Tämä puolestaan tarkoittaa, että autonomisia asejärjestelmiä ei voi oikeasti väittää testatun ”tositilanteessa” ennen kuin ne päästetään irti sellaisessa.

Tekoälyn liittäminen asejärjestelmiin ei ole uhkana vain taisteleville sotilaille ja sotatantereella vahingossa uhriksi joutuville siviileille, ne ovat myös riski autoritaaristen hallintojen alaisille ihmisille. Esimerkiksi kasvojentunnistusalgoritmit ovat nykyään laajenevassa käytössä ympäri maailman. Nykypäivän malliesimerkkinä voikin pitää Kiinan hallinnon ”sosiaalisen krediitin” järjestelmää ja tekoälyn avustamaa väkivaltaa Xinjiangin alueen uiguureja sekä Hong Kongin mielenosoittajia vastaan.

Vaikka sotatilanteen ollessa päällä lait saattavat tuntua turhilta, on niiden olemassaolo silti ensiarvoisen tärkeää. Sääntöjen laiksi kirjoittaminen korottaa aina kynnystä rikkoa niitä. Kansainvälinen oikeus on myös olemassa syyllisyyden jälkikäteen osoittamisen mahdollistamiseksi, ja se toimii asevarustelun sääntelemisessä. Siksi keskustelua autonomisista asejärjestelmistä on pidettävä yllä, sillä uusi teknologia tuo aina omat haasteensa minkä tahansa tason lainsäädännölle. On myös vedettävä selvä raja sille, mikä on hyväksyttävää ja mikä ei: robottiase, joka päättää tappamisesta, ei ole humanitaarisen oikeuden mukainen. Koska tämä ei ole kaikille vielä selvää, erillinen kieltosopimus on välttämätön.

On suorastaan pelottavaa lukea tekstiä, jossa kylmän viileästi analysoidaan sitä, mikä on paras keino tappaa. Niin kauan kuin sotaa ei pystytä käymään absoluuttisessa tyhjiössä vain siihen vapaaehtoisesti ilmoittautuneiden kesken, viattomia tulee menehtymään toisten taloudellisten intressien tai itsensä todistamisen tarpeen takia. Ja voimakeinojen faneille: Robot Wars -TV-ohjelmaformaatti on jo keksitty.