Lasten kuvista väärennetään tekoälyllä pornoa – väärennystapauksia myös Suomessa

Eräänä lokakuun aamuna 14-vuotias Ellis heräsi ja huomasi, että hänelle oli tullut useita puheluja ja viestejä. Ne kaikki koskivat samaa asiaa: Ellisistä sosiaalisessa mediassa kiertäviä alastonkuvia.

Ellis ei ollut ottanut itsestään alastonkuvia, mutta sillä ei tuntunut olevan väliä. Tekoälyllä luodut niin sanotut deep fake -kuvat eli syväväärennetyt kuvat, olivat niin aidon oloisia.

Tekoälyn kukoistaessa samoin on käynyt myös deep fake -pornografialle. Aidon oloisia kuvia ja videoita luodaan hyvin pienellä vaivalla ja rahalla. Tämä on johtanut skandaaleihin ja kiusaamiseen monissa yhdysvaltalaiskouluissa. Vastaavanlaisia väärennöstapauksia on paljastunut myös Euroopassa ja Suomessa.

Asiaan on vaikea puuttua, sillä Yhdysvaltain liittovaltion lainsäädäntö ei kiellä deep fake -kuvien tekemistä.

Yhdysvaltojen Texasissa asuvan Ellisin ja hänen ystävänsä kuvat oli otettu heidän Instagram-tileiltään. Heidän kasvonsa oli irrotettu kuvista ja laitettu tekoälyn luomille alastomille vartaloille.

Myös useille muille oppilaille oli tehty samoin. Kaikki uhrit olivat tyttöjä. Muokatut kuvat jaettiin luokkakavereille Snapchat-viestisovelluksessa.

– Se näytti aidolta, vartalot näyttivät aidoilta. Muistan olleeni hyvin, hyvin peloissani, Ellis kertoo.

Uhri ei välttämättä tiedä kuvista

Ellisin äiti Anna Berry McAdams oli hämmästynyt siitä, miten aidoilta kuvat näyttivät.

– Tytöt vain itkivät ja itkivät. He olivat hyvin häpeissään. He eivät halunneet mennä kouluun, McAdams muistelee.

Marraskuun lopulla vastaavanlainen tapaus sattui Yhdysvalloissa New Jerseyn osavaltiossa.

– Tällaista tulee tapahtumaan useammin ja useammin, sanoo 14-vuotiaan uhrin äiti Dorota Mani.

Mani huomauttaa, että pornografisia deep fake -kuvia voi levitä internetissä ilman, että uhrilla on niistä mitään tietoa.

– Monet uhrit eivät edes tiedä kuvista eivätkä voi näin ollen suojella itseään.

Asiantuntijoiden mukaan lainsäädäntö ei ole pysynyt teknologian perässä, vaikka yksinkertaisempia versioita niin sanotusta väärennetystä pornosta on tehty jo vuosia. Yleensä videot ja kuvat ovat keskittyneet julkisuuden henkilöihin, mutta nykyään uhriksi voi joutua kuka tahansa, joka on julkaissut kuvansa esimerkiksi LinkedIn-yhteisöpalvelussa.

Deep fake voi aiheuttaa ristiriidan

Lokakuussa Yhdysvaltain presidentti Joe Biden allekirjoitti tekoälyyn liittyvän asetuksen. Hän kehotti liittovaltion hallintoa luomaan keinoja, joilla estää seksuaalisen hyväksikäyttömateriaalin luominen lapsista sekä intiimin kuvaston luominen aidoista ihmisistä vastoin näiden tahtoa.

Vaikka yksittäisten kuvien tekijöitä on usein vaikeaa jäljittää, pitäisi niiden takana olevien tekoäly-yhtiöiden tai sosiaalisen median alustojen kantaa vastuu, sanoo tietojenkäsittelytieteen professori Hany Farid Kalifornian yliopistosta.

Virginian yliopiston professori Renee Cummings puolestaan huomauttaa, että deep fake -kuvat voivat luoda lakiin ristiriidan.

– Vaikka kasvosi on laitettu vartalolle, ei vartalo ole todellisuudessa sinun, hän sanoo.

Cummingsin mukaan tämän vuoksi voidaan väittää, etteivät seksuaalisten kuvien jakamisen muista ilman lupaa kieltävät lait koske deep fake -kuvia.

Hän painottaa, että deep fake -porno voi pilata ihmisen elämän. Hän viittaa uhreihin, joilla on ollut ahdistusta, masennusta ja traumaperäinen stressihäiriö.

Väärennetty kuva, todellinen trauma

Texasissa poliisit ja koulun työntekijät puhuivat Ellisin kanssa, mutta todellisia auttamiskeinoja ei tunnu löytyvän. Deep fake -kuvat tehnyt oppilas erotettiin tilapäisesti.

Ellis on puolestaan pyytänyt koulun vaihtoa. Hän kertoo olevansa jatkuvasti ahdistunut.

– En tiedä, onko joku tallentanut kuvat ja lähettänyt niitä eteenpäin. En tiedä, kuinka monta kuvaa hän teki, Ellis sanoo.

– Niin moni ihminen on voinut saada ne.

Ellisin äiti puolestaan pelkää, että kuvat voivat putkahtaa esiin uudelleen.

– Tämä voi vaikuttaa heihin (uhreihin) loppuelämän ajan, hän sanoo.

Lue myös:

    Uusimmat