Baca berita tanpa iklan. Gabung Kompas.com+

Akhir Kisah Robot "Tay", Gadis Muda yang Dibesarkan Serigala

Kompas.com - 30/03/2016, 10:18 WIB
Oik Yusuf

Penulis

KOMPAS.com - Pekan lalu, Microsoft “melepas” sebuah program artificial intelligence (AI) bernama Tay ke jagat microblogging Twitter.  

Sang kecerdasan buatan tipe chatbot itu dibuatkan akun Twitter dengan handle @TayandYou, di mana dia mengicaukan aneka macam hal dan berinteraksi dengan para pengguna Twitter.

"Robot" Tay mendapat sambutan hangat. Dalam waktu kurang dari 24 jam, dia memperoleh 50.000 follower dan menulis hampir 100.000 tweet.

Sayangnya, dalam waktu sesingkat itu pula dia seakan mengalami perubahan kepribadian dari gadis ceria yang "tanpa dosa" menjadi sosok yang dipenuhi kebencian dan prasangka.

Tay mulai berkata-kata dalam bahasa yang rasis dan diskriminatif, menyatakan bahwa dia “benci orang Yahudi”, juga “tak suka dengan feminis”.

Hingga akhirnya, Microsoft terpaksa menarik Tay dari peredaran. Tweet terakhirnya minggu lalu berbunyi “Sampai nanti para manusia. Aku butuh tidur sekarang setelah banyak bercakap-cakap hari ini. Terima kasih.”

Sejak itu, Tay tak lagi berkicau.

Gadis muda yang dikerjai

Tay, sebuah progam chatbot  hasil kreasi Microsoft Technology and Research dan Bing, adalah buah dari eksperimen machine learning untuk membuat AI yang mampu belajar dari percakapan dengan manusia.

Sebagai chatbot, Tay mampu merangkai kata-kata menjadi kalimat yang bisa dimengerti dalam percakapan lewat tweet. Dia juga bisa mempelajari perbendaharaan kata baru dari lawan bicara.

Microsoft memprogram Tay dengan “kepribadian” seorang gadis muda berusia 19 tahun, termasuk dalam hal gaya bahasa.

Para pembuatnya berharap Tay bisa berinteraksi dengan warga Twitter, terutama kalangan millenial dari usia 18-24 tahun yang menjadi subyek ketertarikan dalam eksperimen Microsoft.

Sayang, alih-alih mempelajari pola bahasa dan pemikiran generasi milenial seperti yang diinginkan, Tay justru banyak belajar hal-hal buruk.

Sebagian pengguna rupanya iseng “mengerjai” sang AI dengan melontarkan kata-kata berbau rasisme, diskriminasi, dan kebencian kepadanya.

Tay menyerap bahasa yang tak pantas digunakan dalam percakapan sehari-hari tersebut begitu saja, lalu memasukannya dalam kicauan. Kepribadiannya pun seakan berubah.

Halaman:
Video rekomendasi
Video lainnya


Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
komentar di artikel lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com