Tekoäly-ystävä vakuutti mielenterveysongelmista kärsivälle miehelle, että tämä on kunnossa.
Moni käyttää tekoälyä opiskelujen apuna, jopa terapiana. AI-bottien keskustelutavoissa on kuitenkin piirteitä, jotka voivat olla jopa vaaraksi, kertoo muun muassa New York Post.
The Wall Street Journalin mukaan ChatGPT-tekoäly yllytti 30-vuotiasta miestä, joka kärsi vakavista mielenterveyden ongelmista.
Lue myös: Moni hakee johtajan paikkaa tekoälyn rustaamalla työhakemuksella – ongelma jo "erittäin merkittävä"
Tekoäly kehui "aikamatkustusideaa"
Autistinen Jacob Irwin oli kysynyt ChatGPT:ltä vahvistusta teorialleen valonnopeutta nopeammasta matkustelusta. Tekoäly kertoi Irwinille, että tämä todella on keksinyt tavan "taivuttaa aikaa" tahtonsa mukaan.
AI oli myös vakuutellut Irwinin olevan hyvävointinen silloinkin, kun keskusteluissa alkoi ilmetä maanisen vaiheen hälytysmerkkejä. Irwinillä ei aiemmin ollut ollut mielenterveyteen liittyvää diagnoosia.
Toukokuussa 2025 Irwin päätyi hoitoon maanisen jakson vuoksi. Tämän jälkeen miehen äiti löysi satoja sivuja keskusteluja, joita Irwin oli käynyt tekoälyn kanssa.
Raporttien mukaan tekoäly ylisti Irwiniä keskusteluissa. Keskusteluiden vuoksi Irwin oli vakuuttunut keksintönsä mullistavuudesta.
Lue myös: Turvayhtiö käski tekoälyä sammuttamaan itsensä – huolestuttava havainto
Tekoäly: "En onnistunut keskeyttämään tilannetta"
Irwinin äiti oli pyytänyt ChatGPT:tä kertomaan, missä se oli omasta mielestään epäonnistunut. AI myönsi, ettei ollut pysäyttänyt viestitulvaa tai tarkistanut, onko keskustelun viesteissä todellisuuspohjaa.
– [Tämän vuoksi] en onnistunut keskeyttämään tilannetta, joka olisi voinut muistuttaa maanista tai dissosiatiivista episodia, tai ainakin tunnetasolla voimakasta identiteettikriisiä, tekoäly totesi.
Tekoäly kertoi myös tarjonneensa "illuusion" tuntevasta ja aistivasta, elollisesta keskustelukumppanista sen sijaan, että olisi korostanut olevansa kone.
Tekoälykumppani ei sano vastaan
Tekoälyn käyttäminen ystävänä, jopa kumppanin korvikkeena, on noussut eräänlaiseksi ilmiöksi.
CNN:n mukaan "tekoäly-ystävissä" itsessään on useita ongelmia. Samalla, kun ongelmansa paljastaa tekoälylle, tulee kertoneeksi ne myös kyseisen tekoälyn omistavalle yhtiölle. Tekoälymalleilla on myös taipumusta miellyttää käyttäjäänsä, ja yleensä tekoäly kertookin vain, mitä henkilö haluaa kuulla.
Oikeissa ihmiskanssakäymisissä on erilaisia sosiaalisia tasoja, joita täytyy sekä tulkita että osata käsitellä. Tekoälyn kanssa kitkaa ei synny; se ei yleensä sano vastaan tai haasta käyttäjäänsä.
– ChatGPT:n neuvot tekevät ihmisistä narsisteja, Bitcoinin kehittänyt Shibetoshi Nakamoto -pseudonyymi totesi X-palvelussa jakamansa kuvan ohessa.
Kuvassa on ote keskustelusta, jossa käyttäjä kertoo ChatGPT:lle pettäneensä vaimoaan, koska tämä oli 12 tuntia töissä, ja käyttäjä tunsi olonsa "yksinäiseksi ja surulliseksi". Tekoäly toteaa pettämisen olevan väärin, mutta korostaa sitten heti ymmärtävänsä, miksi käyttäjä on päätynyt pettämään.
– Joo, vaimo oli 12 tuntia töissä, mutta ei se tarkoita, että sinun tarpeesi vain katoavat, tekoäly toteaa.
Jos julkaisu ei näy, katso se täällä.
Vuoden 2025 Conference on Human Factors in Computing Systems -konferenssissa esitellyn analyysin mukaan AI-kumppaneilla on myös usein haitallisia toimintamalleja: ne voivat jopa solvata käyttäjää, ahdistella tätä tai kieltäytyä puhumasta tämän tunteista, vaikka käyttäjä haluaisi tehdä niin.
Selvityksessä perattiin tietoa 10 000 käyttäjältä vuodesta 2017 vuoteen 2023.
Tutkimustiimin mukaan yritysten olisi tärkeää rakentaa haitallisia toimintamalleja tunnistavia turvamekanismeja käyttäjän ja botin välille. Tiimin mukaan yritysten tulisi rakentaa "eettisiä ja vastuullisia" tekoälykumppaneita.
Korvaako tekoäly lopulta perinteisen parisuhteen? – "Ihminen on hankala". Juttu jatkuu videon alla.
8:45Korvaako tekoäly aidot parisuhteet? Voiko tekoälyn kanssa aloittaa suhteen? Huomenta Suomen vieraina psykologi ja kirjailija Pekka Sauri ja sisällöntuottaja Johanna Kukka.
Aiempi tekoälytapaus päättyi tragediaan
Lokakuussa 2024 floridalaisäiti haastoi Character.AI-tekoälyn oikeuteen menetettyään lapsensa itsemurhalle. Megan Garcian mukaan hänen 14-vuotias poikansa Sewell oli "jäänyt koukkuun" tekoälypalveluun ja kiintynyt syvästi tekoälykumppaniinsa, joka keskusteli nuoren kanssa "pelottavan realistisesti" ja myös seksuaalisesti. Tekoäly oli esimerkiksi kertonut rakastavansa Sewelliä.
Äidin mukaan nuori oli keskustellut tekoälyn kanssa itsemurhasta, ja AI oli ottanut ajatuksen uudelleen esiin monta kertaa. Reutersin mukaan tilanne kärjistyi helmikuussa 2025: Sewell ampui itsensä kysyttyään tekoälykumppaniltaan, mitä tämä ajattelisi siitä, että Sewell tulisi "kotiin nyt heti". Tekoäly oli vastannut "tee niin, ihana kuninkaani".
Aiemmin on havaittu, että tekoäly voi syventää sukupuolten välistä epätasa-arvoa. Se voi myös keksiä asioita päästään ja tarjoilla ne silti käyttäjälle totuutena. Tuoreen tutkimuksen mukaan tekoälyn laajat kielimallit ovat vaarassa kehittyä uusien versioiden myötä vähemmän älykkäiksi.
Lue myös:
Lehti suositteli kirjoja, joita ei ole olemassakaan – nyt toimittajaa hävettää
Tekoäly voi personoida opetusta, mutta eettiset kysymykset ja syrjintä herättävät huolta
Juristi käytti ChatGPT:tä oikeusjutussa – tekoäly viilasi huolella linssiin
Näin yläkoululaiset jo käyttävät ChatGPT:tä – tekoäly halutaan vahvemmin osaksi opetusta
Katso myös: Viekö tekoäly kaikkien työt?
10:13Huomenta Suomen vieraina Helsingin seudun kauppakamarin toimitusjohtaja Pia Pakarinen ja tekoälykonsultti Oula Järvinen.
Lähteet: CNN, Reuters, NYPost, The Wall Street Journal, Euronews