Juristi päätti hyödyntää ChatGPT-tekoälyä etsiessään vastaavanlaisia tapauksia kuin se, joka hänellä oli työn alla. Hänen toimitettuaan oikeustapaukset eteenpäin kävi kiusallisella tavalla ilmi, miksi tekoälyyn ei kannata sokeasti luottaa.
Kolmekymmentä vuotta juristina toiminut amerikkalainen Steven Schwartz joutui kiusalliseen tilanteeseen, kun paljastui, että hänen ChatGPT-tekoälybotin avulla netistä erään tapauksen tueksi noutamansa oikeustapaukset olivatkin täysin tekoälyn itsensä keksimiä. Nyt asiasta järjestetään oikeuskäsittely, josta voi tulla Schwartzille sanktioita, kertovat Mashable-sivusto ja uutiskanava CNN.
Lue myös: Tekoälyä hyödynnetään nyt työhakemusten kirjoittamiseen – asiantuntijat listaavat hyödyt ja haitat
Lakimies etsi vastaavia tapauksia ChatGPT:n avulla
Kaikki alkoi siitä, kun Schwartz sai hoidettavakseen vuonna 2019 sattuneen tapauksen, jossa hänen asiakkaansa Roberto Mata haastoi oikeuteen kolumbialaisen lentoyhtiö Aviancan. Matan mukaan hän loukkasi polvensa tarjoilukärryyn ja piti loukkaantumisen syynä lentohenkilökuntaan kuuluvan työntekijän huolimattomuutta.
Avianca yritti saada tuomaria hylkäämään tapauksen. Matan edustajat olivat toista mieltä ja niinpä oikeuteen toimitettiin kirje täynnä tietoja aiemmista vastaavista oikeuden päätöksistä. Oikeuden päätökset oli koonnut Schwartz, joka oli käyttänyt apuna tekoälypalvelu ChatGPT:tä.
ChatGPT toimitti Schwartzille useita nimiä samankaltaisista tapauksista: "Varghese vastaan China Southern Airlines", "Shaboon vastaan Egyptair", "Petersen vastaan Iran Air", "Martinez vastaan Delta Airlines", "Estate of Durden vastaan KLM Royal Dutch Airlines" ja "Miller vastaan United Airlines".

