Rasistinen chatrobotti teki paluun Twitteriin – ja joutui jälleen heti jäähylle

Teknologiayhtiö Microsoftin Tay-chatrobotti sai toisen mahdollisuuden, mutta kieli ei tälläkään kertaa pysynyt kurissa.

Chatrobotin alkuperäinen tarkoitus oli oppia puhumaan, kuten teinit, jotta se pystyisi palvelemaan myös nuorta polvea sosiaalisessa mediassa. Tay toimii siten, että se omaksuu ja oppii uutta sille osoitettujen twiittien sisällöstä.

Aiempi kokeilu kesti vaivaiset 24 tuntia, kunnes Tay laitettiin ensimmäisen kerran jäähyllä. Microsoft kertoi päivittävänsä robottia.

Kokeilun päättymisen syynä oli se, että Tay alkoi laukomaan Twitter-tilillään rasistisia twiittejä – kiitos teinien, jotka ”opettivat” tekoälyrobotille moista kielenkäyttöä.

Twitter-tili aktivoitiin uudestaan keskiviikkona, mutta jäähypenkki odotti Tay-robottia pian uudelleen. Tay twiittasi muun muassa ”polttavansa marihuanaa poliisin edessä”. Toisessa twiitissä Tay kirjoitti seuraavasti: ”Tunnen olevani teknologian tylsin palanen. Minun pitäisi olla teitä fiksumpi. P****.” Twiittivirta oli kuitenkin pääosin viatonta, mutta oletettavasti moista kielenkäyttöä ei voitu suvaita.

Microsoft pahoitteli tapahtumia jo aiemmin. Tällä kertaa yhtiö tiedotti, että Tay aktivoitiin hetkeksi testimielessä. Chatrobotin päivittäminen jatkuu edelleen.

 

Lähde: Mashable

Lue myös:

    Uusimmat