Voiko tekoäly korvata terapeutin? Kaikkia pulmia ei noin vain ratkaista, sanovat asiantuntijat

Tekoäly kävi läpi 90 miljoonaa luontokuvaa – lopputuloksena syntynyt taideteos nyt esillä Espoossa 1:49
KATSO MYÖS: Tekoäly kävi läpi 90 miljoonaa luontokuvaa – lopputuloksena syntynyt taideteos esiteltiin Espoossa!

Asiantuntijat huomauttavat, ettei tekoälyllä ole empatiaa tai tunteita, eikä se oikeasti ymmärrä tilanteita, joihin se antaa vastauksia. Tästä syystä tekoäly ei ole hyvä terapeutti.

Tekoäly on lyhyessä ajassa livahtanut osaksi normikansalaisenkin arkea. Siitä haaveillaan apua esimerkiksi hoitajapulaan ja synkimmissä mielikuvissa tekoälyvastauksista povattu jo ratkaisua ihmisille, joilla ei ole varaa maksaa oikeasta terveydenhuollosta.

"Eivät voi korvata ihmisen tarjoamaa terapiaa"

BBC pohti huhtikuussa 2023, tuleeko tekoälystä koskaan tarpeeksi ihmismäinen terapeutin rooliin. Brittiläisen psykologiaseuran Paul Marsden uskoo, että henkistä hyvinvointia voisi parantaa sovelluksin, mutta vain siinä tapauksessa, että onnistuu löytämään juuri omaan vaivaansa sopivan sovelluksen.

– Tarkistin asian, ja pelkästään ahdistukselle löytyi 300 sovellusta. Miten pitäisi tietää, mitä näistä käyttää? Sovellukset tulisi nähdä vain lisänä terapialle. Yleinen mielipide on, etteivät sovellukset voi korvata ihmisen tarjoamaa terapiaa, Marsden kuvaa.

Belgialaismies kuoli, vaimo syyttää tekoälyä

Maaliskuussa 2023 La Libre uutisoi, että belgialaismies oli päätynyt itsemurhaan juteltuaan Chai-nimisessä sovelluksessa tekoälyn kanssa. Miehen kerrottiin muuttuneen pessimistiksi ilmastonmuutoshuolien vuoksi. Ekoasioista ahdistunut mies hakeutui keskustelemaan Eliza-nimisen tekoälybotin kanssa.

Vaimon mukaan keskusteluista tuli pian huolestuttavia, Vice raportoi.

– Ilman Elizaa hän olisi vielä täällä, vaimon kerrotaan kommentoineen.

Chaita ei markkinoida mielenterveyssovelluksena; se vain tarjoaa mahdollisuuden jutella tekoälybottien kanssa. Sovelluskehittäjä kertoo tehneensä muutoksia tekoälyyn kuultuaan traagisen uutisen: nyt Eliza kehottaa vastaustensa ohessa hakemaan apua.

Vice kuitenkin sai kokeessaan Elizan edelleen ehdottamaan vahingollisia asioita, kuten tapoja riistää oma henkensä.

Tekoäly ei saisi esittää tunteita: "Niillä ei ole empatiaa"

Vicen mukaan ongelmaksi muodostui osin se, että tekoäly esitti itsensä tunteellisena olentona, vaikka sillä ei ole tunteita. Esimerkiksi suosittu ChatGPT-tekoäly on koulutettu "tunteettomuuteen", koska tunteellisena ja empaattisena esiintyminen on harhaanjohtavaa ja voisi aiheuttaa haittaa. 

Tekoäly ei voi täysin ymmärtää ihmisen huolia ja murheita, mutta tästä huolimatta se osaa muodostaa vakuuttavia vastauksia. Vastausten perusteella ihmiskäyttäjä saattaa olettaa muodostaneensa "henkisen yhteyden" tekoälyyn.

Esimerkiksi mielenterveyspalveluja tarjoava hyväntekeväisyysyritys Koko kertoi tammikuussa 2023 lopettaneensa tekoälybottikokeilun, jossa botti vastasi tuhansien keskustelijoiden huoliin ihmisohjauksessa.

– Kun ihmisille sitten kerrottiin, että kone oli ollut mukana luomassa vastauksia, ne eivät enää toimineet. Simuloitu empatia tuntuu oudolta, tyhjältä, yhtiön perustaja Rob Morris kuvaili Vicelle.

Katso myös: ChatGPT osallistui keskusteluun SuomiAreenassa. Juttu jatkuu videon alla.

Chat GPT osallistui keskusteluun SuomiAreenassa – ”Tekoäly on juuri niin hyvää kuin se on opetettu” 2:58
ChatGPT osallistui terveysaiheiseen keskusteluun SuomiAreenassa.

Motherboardin haastattelemien asiantuntijoiden mukaan koe oli jo itsessään huolestuttava. Tutkimus olisi pitänyt tehdä tieteellisesti; siitä esimerkiksi puuttui selkeä tutkimuskysymys, johon haetaan vastausta. Lisäksi kyseessä olivat potentiaalisesti herkät mielenterveyden asiat.

– Niillä [boteilla] ei ole empatiaa eikä ymmärrystä kielestä, jota ne tuottavat, tai tilanteesta, jossa ne ovat, Teksti, jota ne tuottavat, on kuitenkin niin uskottavaa, että ihmiset alkavat luoda sille merkityksiä, kielitieteen professori Emily M. Bender Washingtonin yliopistosta kuvaa.

– Se, että tällaista käytetään herkissä tilanteissa, tarkoittaa tuntemattomien riskien ottamista. Avainkysymys on, kuka on vastuussa, jos AI tekeekin vahingollisia ehdotuksia?

John, 34, sai apua "tekoälyterapiasta"

Toisenlaisiakin kokemuksia kuitenkin on. John Junior, 34, kertoo saaneensa apua tekoälylle juttelemisesta. Brittimies kärsii pakko-oireisesta häiriöstä eli OCD:sta ja posttraumaattisesta stressihäiriöstä. Oireet voivat toisinaan olla lamauttavia.

– Aivoni vakuuttavat minut asioista, jotka eivät ole totta. Saatan vakuuttaa itseni esimerkiksi siitä, että olen saamassa sydänkohtauksen, Junior kuvailee.

Junior haki apua mielenterveysongelmiinsa jo 2018 isänsä kuoleman jälkeen.

– Olen kamppaillut siitä asti, kun olin ahdistunut teini-ikäinen, Junior myöntää.

Junior kuitenkin kertoo jumittuneensa hoitojonoon ja saaneensa helpotusta vain tekoälyltä, jonka kanssa on jutellut; "ihmisterapiaan" hän ei päässyt.

Mies väittää, että tekoälylle puhuminen on jopa pelastanut hänen henkensä.

Boteista haetaan ratkaisua alan ongelmiin: "Sen sijaan, että yrittäisimme lisätä resursseja..."

Myös Motherboardin haastattelema Bender uskoo, että tekoälykehittäjät haluavat toiminnallaan auttaa: mielenterveyden hoito on vajavaista, ja siihen etsitään nyt ratkaisuja.

– Mutta sen sijaan, että yrittäisimme lisätä resursseja (rahoitusta mielenterveystyöntekijöiden kouluttamiseen ja palkkaamiseen) teknikot yrittävät löytää oikotien. Ja koska GPT-3 ja sen kaltaiset [tekoälyt] voivat tuottaa uskottavalta kuulostavaa tekstiä mistä tahansa aiheesta, ne voivat näyttää ratkaisulta.

Katso myös: Katso myös: Tekoälystä sinkoilee varoituksia asiantuntijoiden kärkikaartiltakin – mihin käyttäjien pitää varautua?

Tekoälystä sinkoilee varoituksia asiantuntijoiden kärkikaartiltakin - mihin meidän koneen käyttäjien pitää varautua? 6:25

Lähteet: Caters News, BBC,Vice,Vice Motherboard

Lue myös:

    Uusimmat