Tekoälyä halutaan käyttää yhä useammin ihmisen apuna päätöksenteossa, mutta kuka vastaa robotin tai ohjelmiston tekemästä virheestä esimerkiksi hoidon tarpeen arvioinnissa tai oleskelulupaa koskevassa päätöksessä?
Oikeuskansleri Tuomas Pöystin mukaan automaattisen päätöksenteon lisääntyessä kysymys vastuun jakautumisesta on keskeinen ja siihen tarvitaan pikimmiten pelisäännöt.
Tekoälyä käytetään jo nyt esimerkiksi lääkärin apuna diagnoosin tukemisessa ja hoidontarpeen arvioimisessa. Pöystin mielestä se voisikin olla mainio apu esimerkiksi terveyskeskusjonojen purkamisessa.
Kone pystyy havaitsemaan tiettyjä oireita aikaisemmin kuin lääkäri keskimäärin. Pöystin mukaan se pystyy varsin tehokkaasti tunnistamaan asiakkaat, jotka täytyisi saada vastaanotolle ja toisaalta antamaan neuvoja niille, jotka eivät välttämättä tarvitse vastaanottokonsultaatiota.
– Iso kysymys kuitenkin kuuluu, kenen on vastuu, jos kone tekee virheen? Onko se lääkärin, järjestelmän laatijan vai järjestelmän kouluttajan vastuulla, Pöysti sanoo STT:n haastattelussa.
– Kysymys vastuun jakautumisesta on keskeisimpiä juridis-eettisiä kysymyksiä tällä hetkellä niin Suomessa kuin kansainvälisesti.
Oikeuskanslerin uudeksi erityistehtäväksi on tulossa hallinnon automaattisen päätöksenteon ja automaattisten järjestelmien yleistä kehittämistä koskeva laillisuusvalvonta.
Nykylain mukaan lääkäri vastaa
Pöystin mukaan ihmisoikeusjärjestö Euroopan neuvostossa valmistellaan parhaillaan kansainvälistä sopimusinstrumenttia, mutta kovin pitkällä käytännön säännöissä ei vielä olla.
Niin kauan kuin uusia instrumentteja ei ole saatettu voimaan, mennään nykyisen lainsäädännön mukaan. Siten esimerkiksi terveydenhuollossa lääkäri vastaa diagnoosista ja antamastaan hoidosta.
– Mutta kun tekoälyä on käytetty päätöksenteossa hyvin laajasti tai jopa kokonaan, järjestelmän kehittäjät ja laatijat ja ne, jotka ovat robotin tai algoritmin kouluttaneet vastaavat sen vaatimuksenmukaisuudesta. Sen selventäminen, mitä se käytännössä tarkoittaa, on ensisijainen kysymys.