Baca berita tanpa iklan. Gabung Kompas.com+

Akhir Kisah Robot "Tay", Gadis Muda yang Dibesarkan Serigala

Kompas.com - 30/03/2016, 10:18 WIB
Oik Yusuf

Penulis

“Ada sebuah upaya terkoordinasi dari sejumlah pengguna untuk menyalahgunakan kemampuan Tay dalam berkomentar, sehingga dia memberikan respon dengan cara yang tidak seharusnya,” tulis Microsoft dalam sebuah pernyataan, mengenai nasib buruk yang menimpa Tay.

Dibesarkan oleh serigala

Pada awalnya, Tay hanya berkicau mengenai topik-topik ringan seperti menyatakan diri “cinta manusia” dan berbicara soal selfie dalam bahasa ala anak muda milenial (setidaknya menurut pemikiran Microsoft).

Ia juga mulanya membalas kata-kata tak pantas yang ditujukan kepadanya dengan candaan. Tapi, seiring dengan berulang dan makin banyaknya komentar negatif tersebut, bahasa Tay mulai berubah.

Memang, tweet bernada miring yang diunggah Tay sebenarnya bisa dibilang merupakan hasil “membebek” alias meniru kata-kata dari lawan bicara yang kemudian diunggah lagi dalam tweet sendiri.

Namun, hal tersebut paling tidak menunjukkan bahwa AI bisa mempelajari dan meniru kelakuan buruk manusia. Ibarat bocah polos, Tay menyerap “pelajaran” yang diperoleh tanpa peduli baik atau buruk, salah atau benar.

Kepala Lab CyberSecurity University of Louisville, Roman Yampolskiy, mengaku tak heran karena sistem AI yang dirancang untuk belajar dari penggunanya bakal menjadi cerminan dari perilaku para penguna tersebut.


“Sistem AI apapun yang belajar dari contoh buruk bisa berkelakuan tak pantas secara sosial,” ujar Yampolskiy, seperti dirangkum KompasTekno dari TechRepublic, Selasa (29/3/2016), “Seperti manusia yang dibesarkan oleh serigala saja.”

Senada dengan Yampolskiy, pendiri Unanimous AI Louis Rosenberg mengatakan bahwa Microsoft lupa membekali Tay dengan kemampuan untuk memilah-milah informasi.

Berbeda dari manusia, Tay tak mampu (atau belum mampu) membaca konteks percakapan, atau membedakan mana fakta dan mana yang hanya opini pribadi.

“Jadinya tak berbeda dari burung kakaktua yang belajar kata-kata buruk, lalu mengucapkannya kembali tanpa benar-benar tahu apa artinya,” ujar Rosenberg.

Belajar memaki

Kejadian di atas sebenarnya bukan kali pertama sebuah AI belajar hal-hal buruk yang membuatnya berkelakuan ngawur.

Bertahun-tahun sebelumnya, pada 2011, peneliti IBM bernama Eric Brown pernah mencoba untuk mengajari perbendaharaan kata-kata slang kepada Watson, sebuah superkomputer IBM yang dikenal mampu mengalahkan manusia dalam game "Jeopardy".

Menggunakan Urban Dictionary sebagai sumbernya, Brown berharap Watson bisa lebih “manusiawi” apabila ia mampu mempelajari kompleksitas bahasa orang.

Halaman:
Video rekomendasi
Video lainnya


Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
komentar di artikel lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com