Mitä tapahtuu kun feikkiä ei erota enää todellisuudesta? Microsoft-pomo huolissaan

Tekniikan kehittyessä tietokoneen luomat grafiikat ovat nousemassa niin kovalle tasolle, että ihmisten alkaa olla hankala erottaa aitoa kuvaa väärennetystä.

Deepfake-ilmiöstä on nähty vain jäävuoren huippu ja uusia uhkia nousee esiin lähitulevaisuudessa. Kohta emme voi olla enää varmoja, onko videopuhelun toinen osapuoli oikea ihminen. Huijarit voivat myös luoda sarjoittain valevideoita tukemaan valheellisia väitteitään, varoittaa Microsoftin tieteellinen johtaja Eric Horvitz .

TechRadar kirjoittaa Horvitzin sanovan, että rikolliset ovat jo valmiita viemään väärennetyt videonsa seuraavalle tasolle. Väärennettyjen videoiden luominen onnistuu jo tällä hetkellä tekoälyn ja koneoppimisen avulla.

Deepfake-ilmiö on kehittymässä interaktiiviseksi, jossa käyttäjät voivat keskustella tyhjästä luodun vastapuolen kanssa. Toinen uhkakuva on koostetut deepfake-videot, jotka nivoutuvat ajan mittaan yhteen oikean maailman tapahtumien kanssa. Tämän avulla voidaan luoda niin kutsuttua vaihtoehtoista historiaa, joka saattaa vaikuttaa teknologian kehittyessä täysin aidolta.

Horvitz on huolissaan juuri deepfaken kehittymisestä siihen pisteeseen, että aitojen videoiden erottaminen väärennetyistä käy lähes mahdottomaksi. Hänen mukaansa lähitulevaisuuden deepfake-teknologia uhkaa viedä maailman kohti tiedon jälkeistä aikaa, jossa faktaa ei voi erottaa fiktiosta.

Lue myös:

    Uusimmat

    Sivusto ei tue käyttämääsi selainta. Suosittelemme vaihtamaan tuettuun selaimeen. Lisätietoja