Kuka vastaa, jos robotti tekee virheen? – Oikeuskansleri Pöysti kiirehtii pelisääntöjä tekoälyn käyttöön

Tekoälyllä toimiva uutisankkuri esiteltiin Kiinassa 0:31
Video: Kiinassa esiteltiin viime vuonna tekoälyllä toimiva uutisankkuri

Tekoälyä halutaan käyttää yhä useammin ihmisen apuna päätöksenteossa, mutta kuka vastaa robotin tai ohjelmiston tekemästä virheestä esimerkiksi hoidon tarpeen arvioinnissa tai oleskelulupaa koskevassa päätöksessä?

Oikeuskansleri Tuomas Pöystin mukaan automaattisen päätöksenteon lisääntyessä kysymys vastuun jakautumisesta on keskeinen ja siihen tarvitaan pikimmiten pelisäännöt.

Tekoälyä käytetään jo nyt esimerkiksi lääkärin apuna diagnoosin tukemisessa ja hoidontarpeen arvioimisessa. Pöystin mielestä se voisikin olla mainio apu esimerkiksi terveyskeskusjonojen purkamisessa.

Kone pystyy havaitsemaan tiettyjä oireita aikaisemmin kuin lääkäri keskimäärin. Pöystin mukaan se pystyy varsin tehokkaasti tunnistamaan asiakkaat, jotka täytyisi saada vastaanotolle ja toisaalta antamaan neuvoja niille, jotka eivät välttämättä tarvitse vastaanottokonsultaatiota.

– Iso kysymys kuitenkin kuuluu, kenen on vastuu, jos kone tekee virheen? Onko se lääkärin, järjestelmän laatijan vai järjestelmän kouluttajan vastuulla, Pöysti sanoo STT:n haastattelussa.

– Kysymys vastuun jakautumisesta on keskeisimpiä juridis-eettisiä kysymyksiä tällä hetkellä niin Suomessa kuin kansainvälisesti.

Oikeuskanslerin uudeksi erityistehtäväksi on tulossa hallinnon automaattisen päätöksenteon ja automaattisten järjestelmien yleistä kehittämistä koskeva laillisuusvalvonta.

Nykylain mukaan lääkäri vastaa

Pöystin mukaan ihmisoikeusjärjestö Euroopan neuvostossa valmistellaan parhaillaan kansainvälistä sopimusinstrumenttia, mutta kovin pitkällä käytännön säännöissä ei vielä olla.

Niin kauan kuin uusia instrumentteja ei ole saatettu voimaan, mennään nykyisen lainsäädännön mukaan. Siten esimerkiksi terveydenhuollossa lääkäri vastaa diagnoosista ja antamastaan hoidosta.

–  Mutta kun tekoälyä on käytetty päätöksenteossa hyvin laajasti tai jopa kokonaan, järjestelmän kehittäjät ja laatijat ja ne, jotka ovat robotin tai algoritmin kouluttaneet vastaavat sen vaatimuksenmukaisuudesta. Sen selventäminen, mitä se käytännössä tarkoittaa, on ensisijainen kysymys.

Migri joutunee vielä odottamaan

Suomessa automaattista päätöksentekoa koskeva lainsäädäntö vaatii vielä oikeusministeriön johdolla tehtävää valmistelua ennen kuin uusia ehdotuksia viedään eteenpäin, sanoo Pöysti. Esimerkiksi Maahanmuuttovirasto Migri on halunnut automaattisesta päätöksenteosta apua käsittelyruuhkaansa, mutta eduskunnan perustuslakivaliokunta ei näytä sille vihreää valoa.

Valiokunta antoi torstaina erittäin tiukan lausunnon hallituksen lakiesityksestä, joka sallisi Migrin hoitaa tietyissä rajoissa kansalaisuuspäätösten ja oleskelulupien käsittelyä täysin automaattisesti.

– Perustuslakivaliokunnan lausunnon perusteella maahanmuuttohallinnon automaattista päätöksentekoa koskevaa esitystä ei pitäisi enää viedä eteenpäin eduskunnan hallintovaliokunnassa, arvioi Pöysti.

Perustuslakivaliokunnan mielestä tällaisissa tapauksissa ei ole aihetta edetä yksittäisillä lakiehdotuksilla ennen kuin automatisoitua päätöksentekoa koskeva yleislainsäädäntö on kunnossa.

– Yleislainsäädäntö ei ole kuitenkaan vielä ollenkaan siinä vaiheessa, että se tulisi pian voimaan, sanoo Pöysti.

Oikeusministeriössä vasta kartoitetaan lainsäädännön tarpeita, sääntelyn malleja sekä perustuslaista, perusoikeuksista ja ihmisoikeuksista tulevia reunaehtoja.

Pöystin mielestä perustuslakivaliokunnan kanta on johdonmukainen. Esimerkiksi viime vaalikauden lopussa kaatui hallituksen vastaava esitys siitä, että Kansaneläkelaitos voisi alkaa hyödyntää tekoälyä päätöksenteossa.

Migrin tapauksessa hallituksen näkemys oli, että organisaation ylin johtaja olisi yleisvastuussa koneen tekemistä päätöksistä. Perustuslakivaliokunnan mielestä virkavastuun kohdistaminen viraston yleisjohtamisesta vastaavaan ylijohtajaan on näennäinen ja keinotekoinen.

Mitä valmiimpi kone on, sitä helpommin siihen nojataan

 Tietyissä tilanteissa myönteisten päätösten tekeminen tekoälyn voimin on jo mahdollista erityislainsäädännön sallimana. Esimerkiksi kestävän metsätalouden rahoituksessa on mahdollista käyttää kokonaan automaattista päätöksentekoa.

– Automatisoitu luottoluokitus voi kuitenkin muodostua käytännössä syrjiväksi. Kategorisointi voi aiheuttaa virheitä ja vinoumia.

Pöystin mukaan päätöksenteon tukena tekoälyn käyttö on yleisempää. Silloin kone avustaa, mutta ihminen tekee lopullisen päätöksen.

– Näkemykseni laillisuusvalvojan näkökulmasta on, että liian isoa eroa ei näiden välille voi tehdä. Kovassa työpaineessa ihmisen mahdollisuudet arvioida asiaa eri tavalla kuin kone voivat jäädä käytännössä näennäisiksi.

Pöysti uskoo, että mitä valmiimmin kone toimii, sitä helpommin ammattilainen siihen työpaineessa nojaa. Toisaalta automaattinen päätöksenteko voi parantaa monissa tapauksissa päätösten laatua ja tehokkuutta.

– Minulla ei ole tiedossa, että Suomessa olisi koneen tekemänä tapahtunut mitään sen kummempia vahinkoja kuin mitä tapahtuu inhimillisessäkään toiminnassa. Mutta mitä itsenäisemmäksi automaattinen päätöksenteko tulee ja mitä enemmän siihen nojaudutaan, sitä tärkeämmäksi tulee käydä keskustelu vastuun jakamisesta ennakoivasti.

Riskinä terveystietojen vuotaminen

Yksityisellä puolella automaattinen päätöksenteko ja profilointi on sallittu Euroopan unionin tietosuoja-asetuksen raameissa.

Profiloinnilla tarkoitetaan mitä tahansa henkilötietojen automaattista käsittelyä, jossa henkilötietoja käyttämällä arvioidaan tiettyjä henkilökohtaisia ominaisuuksia.

Pöystin mielestä on hyvä pohtia, missä määrin koneen tekemä arvio voi muodostua ongelmalliseksi itseään toteuttavaksi ennusteeksi, jos se poimii esimerkiksi työterveyshuollossa riskiryhmät.

– Tarvitaan selkeät pelisäännöt siihen, missä määrin se jää vain potilaan ja terveydenhuollon ammattilaisen väliseksi asiaksi ja missä määrin tieto voi millään tavoin vuotaa työnantajalle.

Ihmisen ja laitteiden välistä vuorovaikutusta ja siihen liittyviä riskejä on aikaisemmin mietitty erityisillä turvallisuusteknologian alueilla, kuten lentoliikenteen, avaruuslentojen ja osittain ydinvoimaloiden yhteydessä.

– Nyt kun puuhataan itse ajavia autoja, tämä logiikka täytyy siirtää erityisammattilaiskontekstista koskemaan kaikkia niitä laitteita, missä teknologiaa käytetään. Ihmisen ja koneen välinen suhde ja sen ohjaaminen osittain lainsäädännöllä, osittain vastuuta jakamalla, koulutuksella ja eettisellä ohjelmalla on osa uuden teknologian ottamista haltuun arjessa. 

Lue myös:

    Uusimmat