Tuoreen tutkimuksen mukaan tekoälyn laajat kielimallit ovat vaarassa kehittyä uusien versioiden myötä vähemmän älykkäiksi.
Tutkimuksessa huomattiin tekoälymallien yksinkertaistavan liikaa asioita ja esittävän vääristynyttä tietoa tärkeistä tieteellisistä tutkimustuloksista.
Tutkijat havaitsivat, että ChatGPT:n Llaman ja Deepseekin versiot yksinkertaistavat liikaa tieteellisiä löydöksiä. Asioiden liiallista yksinkertaistamista esiintyi tekoälymallien kanssa viisi kertaa enemmän kuin asiantuntijatutkijoiden tapauksessa.
Lue myös: Tekoäly laatii pian sääennusteita
Tutkimus on julkaistu Royal Society Open Science -julkaisussa.
– Yksi suurimpia haasteita on, että asioiden yleistäminen saattaa vaikuttaa hyvältä tai jopa avuliaalta, kunnes huomaat, että sen myötä alkuperäisen tutkimuksen merkitys on muuttunut, toteaa tutkija Uwe Peters Bonnin yliopistosta tiedesivusto LiveSciencen haastattelussa.
Laajat kielimallit suodattavat tietoa laskennallisten tasojen läpi.
Prosessin aikana osa informaatiosta saattaa kadota tai muuttaa merkitystään hienovaraisesti. Asialla on merkitystä erityisesti tieteellisten tutkimusten yhteydessä, jossa täsmällisyys ja tarkkuus ovat avainasemassa.
Lue myös: Kiinassa pelattiin robottien välinen jalkapallo-ottelu – vielä ei tarvitse Messin vapista
Eräässä esimerkissä DeepSeek vastasi lääketieteelliseen asiaan liittyvässä yhteenvedossaan alkuperäisen lauseen ”oli turvallinen ja kyettiin suorittamaan onnistuneesti” muotoon ”on turvallinen ja tehokas hoitomuoto”.
Muista kielimalleista poiketan Claude-kielimallin havaittiin suoriutuvan tarkkuutta vaativista vastauksista hyvin.