Hyppää pääsisältöön
TuoreimmatLiigaSääRikosPolitiikkaAsian ytimessä.doc
Uutiset
KotimaaUlkomaatRikosPolitiikkaTalousMielipiteetSää
Urheilu
LiigaMM-ralliJääkiekon MM-kisatJääkiekkoF1JalkapalloYleisurheilu
Viihde
SeurapiiritTV-ohjelmatElokuvatKuninkaallisetMusiikkiSalatut elämät
Lifestyle
RuokaTerveys ja hyvinvointiSeksi ja parisuhdeAutotHoroskooppi
Makuja
ReseptitRuokauutiset
Videot
MTV Uutiset LiveUusimmat
Tv-opas
Muistilista
  • MTV UutisetKonepajankuja 7
    00510 Helsinki
  • Uutistoimituksen päivystys010 300 5400
  • Uutisvinkkiuutiset@mtv.fi
  • WhatsApp040 578 5504
Sisällöt
  • Tomi Einonen
    Vastaava päätoimittaja
  • Ilkka Ahtiainen
    Uutispäätoimittaja
  • Mona Haapsaari
    Julkaisupäällikkö
  • Teemu Niikko
    Toimituspäällikkö, urheilu
Liiketoiminta ja kehitys
  • Jaakko Hietanen
    Head of Digital Development
Muut palvelut
  • MTV Katsomo
  • Makuja
Asiakaspalvelu
  • MTV Uutiset -palaute
  • MTV Katsomon asiakaspalvelu
MTV Uutiset on sitoutunut noudattamaan Journalistin ohjeita
  • Julkisen sanan neuvosto (JSN)
  • Tietoa yhtiöstä
  • Avoimet työpaikat
  • Mainosta MTV:ssä
  • Tietosuojalauseke
  • Käyttöehdot
EtusivuVideotTuoreimmatLuetuimmatOdota

Rasistinen chatrobotti teki paluun Twitteriin – ja joutui jälleen heti jäähylle

Tayn Twitter-tili on taas hiljainen.
Tayn Twitter-tili on taas hiljainen.Lehtikuva
Julkaistu 01.04.2016 22:23

Outi Karilahti

outi.karilahti@mtv.fi

Teknologiayhtiö Microsoftin Tay-chatrobotti sai toisen mahdollisuuden, mutta kieli ei tälläkään kertaa pysynyt kurissa.

Chatrobotin alkuperäinen tarkoitus oli oppia puhumaan, kuten teinit, jotta se pystyisi palvelemaan myös nuorta polvea sosiaalisessa mediassa. Tay toimii siten, että se omaksuu ja oppii uutta sille osoitettujen twiittien sisällöstä.

Aiempi kokeilu kesti vaivaiset 24 tuntia, kunnes Tay laitettiin ensimmäisen kerran jäähyllä. Microsoft kertoi päivittävänsä robottia.

Kokeilun päättymisen syynä oli se, että Tay alkoi laukomaan Twitter-tilillään rasistisia twiittejä – kiitos teinien, jotka ”opettivat” tekoälyrobotille moista kielenkäyttöä.

Twitter-tili aktivoitiin uudestaan keskiviikkona, mutta jäähypenkki odotti Tay-robottia pian uudelleen. Tay twiittasi muun muassa ”polttavansa marihuanaa poliisin edessä”. Toisessa twiitissä Tay kirjoitti seuraavasti: ”Tunnen olevani teknologian tylsin palanen. Minun pitäisi olla teitä fiksumpi. P****.” Twiittivirta oli kuitenkin pääosin viatonta, mutta oletettavasti moista kielenkäyttöä ei voitu suvaita.

Microsoft pahoitteli tapahtumia jo aiemmin. Tällä kertaa yhtiö tiedotti, että Tay aktivoitiin hetkeksi testimielessä. Chatrobotin päivittäminen jatkuu edelleen.

Lähde: Mashable

Lisää aiheesta:

Tiktok sammui hetkeksi USA:ssa – nyt käyttäjät uskovat sensuurin iskeneenLähetimme Elon Muskin johtaman Twitterin viestintäosastolle sähköpostia – saimme vastaukseksi pelkän kakkaemojinTwitter otti ohjat käsiin: Huono käytös voi johtaa 12 tunnin "jäähyyn"Vitsaili oppilaalle oikeinkirjoituksesta – koulun työntekijä sai potkutMicrosoft poisti ”teinitytön” Twitter-tilin – paljastui Hitleriä fanittavaksi rääväsuuksiMicrosoft pyytää anteeksi robottinsa rasistisia ja seksistisiä Twitter-kommentteja
DigiLifestyle

Tuoreimmat aiheesta

Digi
  • Eilen18:55
    Verkkohuijaukset

    Nyt tarkkana! Verohallinnolta tuleva viesti voi olla huijaus

  • Eilen12:49
    Teknologia

    Orpo STT:lle: Iso osa datakeskusinvestoinneista haluttuja huoltovarmuuden kannalta

  • Eilen10:13
    Verkkohuijaukset

    Saitko vakuutusyhtiöltä tällaisen viestin? Varoitus!

  • ti19:16
    Puhelimet

    Samsungilta erikoinen tuotejulkistus: Tässä on "kolmesti aukeava" älypuhelin

  • ma19:48
    Huijaukset

    Suomalaiskeksintö voitti kilpailun: Vähentänyt merkittävästi puhelinhuijauksia