Nainen väitti käyttäneensä tekoälyä pettäjän narauttamiseen – video kertoo huolestuttavasta ilmiöstä

TikTok-suosikki väitti narauttaneensa petollisen poikaystävänsä tekoälyn avulla. Vaikka video oli pila, ihmiset todella ovat huonoja tunnistamaan keinotekoista ääntä.

TikTok-suosikki väitti narauttaneensa petollisen poikaystävänsä tekoälyn avulla. Mia Diolla, 22, on yli viisi miljoonaa seuraajaa videopalvelussa. Huhtikuussa julkaisemallaan videolla Dio kertoi narauttaneensa petollisen miehen tekoälyn avulla, kertoo New York Post.

– Kloonasin poikakaverini äänen tekoälyllä saadakseni tietää, pettääkö hän, Dio kuvasi klipillä, jonka on nähnyt yli kaksi miljoonaa katsojaa. 

Kloonaamallaan äänellä Dio soitti poikaystävänsä ystävälle. Hän pani kuvitteellisen äänen esimerkiksi sanomaan, ettei muista edellisiltaa, ja kysymään "mitä tein". Puhelun aikana miehen bestis paljasti tämän vehtailleen vieraan naisen kanssa "kaikkien nähden".

"Narautusvideo". Jos julkaisu ei näy, katso se täällä.

"Tässä tekoäly juttelee tekoälylle" – video olikin pila

Dio lupasi videolle jatkoa, jota ei koskaan tullut. Koko tilanteen aitous herätti alusta asti epäilyksiä.

– Bestiksenkin ääni on kloonattu, kommenteissa epäiltiin. 

– Tässä tekoäly juttelee tekoälylle, toinen kommentoija kirjoitti.

Dio paljasti itse myöhemmin, että koko video oli pila, jossa myös hänen poikaystävänsä oli mukana. He ovat onnellisesti yhdessä.

– Olimme yllättyneitä siitä, miten suuri määrä ihmisiä uskoi sen [videon tilanteen] tapahtuneen, Dio myöntää. 

Tarkoituksena oli näyttää, mitä uudella teknologialla voi tehdä.

– Mielestäni ihmisten on paljon helpompaa pettää teknologian ja somen ansiosta, mahdollisuuksia on niin paljon. Kääntöpuoli on, että on paljon helpompi jäädä kiinni, hän kuvasi.

Selvitys paljasti: Ihmiset eivät tunnista tekoääntä aidosta

Vaikka videota syytettiin myös ovelaksi tekoälysovelluksen mainokseksi, siinä saattaa piillä totuuden siemen. University College Londonin selvityksen mukaan ihmiset kykenevät erottamaan aidon äänen tekoäänestä hyvin huonosti. 

Selvitys julkaistiin Plos Onessa. Koehenkilöitä varten luotiin 50 deepfake-ääntä englanniksi ja mandariinikiinaksi. Näytteet luotiin tekstiä puheeksi muuttavan algoritmin avulla. Sekä aitoja ääniä sekä koneluomuksia soitettiin 529 henkilölle.

Deepfake-ääni tunnistettiin epäaidoksi vain 73 prosenttia ajasta. Tulos parani vain hieman sen jälkeen, kun koehenkilöitä opastettiin tekoäänen tunnistamisessa.

– Löydös vahvistaa, että ihmiset eivät kykene luotettavasti tunnistamaan deepfake-puhetta, olivat he sitten saaneet koulutusta keinotekoisen sisällön tunnistamiseen tai eivät, kuvaa tutkimusta tehnyt Kimberly Mai.

– On myös huomionarvoista, että ääni, jota tutkimuksessa käytettiin, luotiin melko vanhoilla algoritmeilla. Tämä herättää kysymyksiä siitä, olisivatko ihmiset vielä vähemmän kykeneviä tunnistamaan deepfake-puhetta, jos sen luomiseen käytettäisiin hienostuneinta mahdollista nyt tarjolla olevaa tai tulevaa teknologiaa.

Katso myös: Tekoälystä sinkoilee varoituksia asiantuntijoiden kärkikaartiltakin, mihin meidän pitää varautua?

Tekoälystä sinkoilee varoituksia asiantuntijoiden kärkikaartiltakin - mihin meidän koneen käyttäjien pitää varautua? 6:25
Viiden jälkeen keskusteli tekoälyn vaaroista.

 

Lue myös:

    Uusimmat