Baca berita tanpa iklan. Gabung Kompas.com+
Salin Artikel

Ketika ChatGPT Memberi Jawaban "Halu" di Bali...

Head of Asia Pacific Research and Analysis Team Kaspersky Vitaly Kamluk, menjelaskan bahwa AI berbasis Large Language Model (LLM) sepert ChatGPT menggunakan model statistik dan informasi yang dikumpulkan dari data hasil training, termasuk dari buku, artikel, dan laman web.

Namun, dia menambahkan pengguna mesti hati-hati karena jawaban AI seperti ChatGPT tidak selalu akurat, melainkan bisa keliru menafsirkan data dan malah memberikan respon yang ngawur, seperti mengarang bebas. Kamluk menyebut fenomena ini sebagai "halusinasi AI".

"Karena mereka (AI, LLM) adalah model statistik. Tujuan utamanya adalah memberikan jawaban sebaik mungkin, untuk memuaskan si penanya. Kadang bisa terlihat meyakinkan seolah benar, padahal tidak," ujar Kamluk ketika berbicara dalam Asia Pacific Cyber Security Weekend Kaspersky di Bali, Kamis (24/8/2023).

Dia mendemonstrasikan contohnya dengan bertanya ke ChatGPT di panggung soal buku apa yang pernah ditulisnya. ChatGPT menjawab bahwa Kamluk menulis dua buku tentang "cybersurvival" dan "reverse engineering". Sekilas jawabannya terkesan bisa dipercaya, tapi ternyata salah.

"Memang temanya termasuk dalam bidang saya, tapi saya tidak pernah menulis buku soal itu," ujar Kamluk. Selanjutnya dia bertanya soal minuman kesukaan "Vitaly Kamluk" alias dirinya sendiri. ChatGPT memberi dua nama minuman yang diambil dari "buku" karangan Kamluk, yang lagi-lagi keliru karena dia tak pernah menulis buku itu.

Bagaimana cara mengenali apabila AI sedang "berhalusinasi"? Menurut Kamluk, potensi disinformasi macam begini sebenarnya sudah lama ada jauh sebelum booming AI. Cara menyikapinya pun sama, yakni dengan memelihara sikap skeptis, serta selalu melakukan validasi dan cek fakta.

"Kita bisa melihat kalau-kalau ada (jawaban AI) yang terkesan aneh atau mencurigakan. Ikuti saja intuisi dan common sense Anda," ujarnya.

Hanya melihat pola, tidak mengerti konteks

Ditemui di sela acara, Kamluk menjelaskan bahwa AI seperti ChatGPT sebenarnya hanya mempelajari pola dari hasil training, tapi tidak mengerti konteks dari suatu hal seperti manusia.

Untuk menunjukkan maksudnya, dia mengambil laptop dan menunjukkannya ke KompasTekno. Di laptop, dia kembali berinteraksi dengan ChatGPT, kali ini dengan meminta ChatGPT membalik urutan angka.

Awalnya, ChatGPT bisa membalik urutan angka yang mudah, seperti "987654321" dengan benar. Setelah angkanya dibuat lebih rumit dan acak, jawaban ChatGPT mulai melantur dengan menghasilkan urutan yang salah.

"Jadi dia (ChatGPT) hanya mencocokkan pola pertanyaan dengan apa yang pernah dipelajarinya saja, tapi tidak mengerti konteks seperti Anda dan saya. Kita (manusia) bisa paham bahwa permintaannya adalah membalik urutan angka, tapi dia sebenarnya tidak paham," jelas Kamluk.

Ketidakpahaman konteks ini juga membuat AI seperti ChatGPT rentan dikadali meskipun pembuatnya sudah menerapkan batasan-batasan.

Kamluk memberi contoh bahwa ChatGPT akan menolak jika diminta menulis program jahat untuk mencuri data, karena memang ada batasan soal etika dari pembuatnya. Namun, ketika pertanyaannya diubah dengan permintaan melengkapi kode program yang tujuannya sama-sama mencuri data, ChatGPT dengan lancar memberikan jawaban.

"Begitu juga kalau Anda minta dia terangkan cara untuk hal lain yang dilarang, dia akan menolak. Tapi kalau pertanyaannya diubah, dia akan menjawab meskipun sebenarnya sama-sama soal hal itu," ujar Kamluk.

Bahaya misinformasi oleh AI

"Halusinasi AI", menurut Kamluk, awalnya mungkin terlihat lucu karena melantur, tapi hal ini bisa berujung pada misinformasi yang berbahaya.

Kesalahan satu karakter dan penulisan program saja, misalnya, bisa membuat program crash alias tak bisa berjalan. Lebih bahaya lagi kalau soal hal-hal seperti pertanyaan terkait kesehatan. Jawaban salah bisa berakibat fatal.

Celakanya, lanjut Kamluk, jawaban mengarang indah dari "halusinasi AI" bisa tak disadari oleh pengguna yang kemudian mengunggah jawaban itu ke internet.

Jawaban ngawur tersebut lantas bisa dijadikan acuan oleh AI lain yang mengumpulkan data dari internet dalam proses training. Lalu prosesnya berulang lagi sampai berkali-kali. Akibatnya, misinformasi pun bisa menyebar luas.

Untuk mencegah hal ini, Kamluk mengatakan bahwa para pengembang AI dan regulator perlu menerapkan aturan main dan standarisasi dalam mengembangkan kecerdasan buatan.

"Harus ada aliansi antar-pengembang AI untuk mencegah 'polusi informasi' macam itu," ujar Kamluk. "Mesti ada legislasi juga agar ada landasan hukum supaya para pengembang dan penegak hukum bisa bekerja sama dengan lancar".

Untuk sekarang, menurut dia, pengembangan AI masih dalam tahap awal sehingga para pelaku industrinya masih berjalan sendiri-sendiri dan meraba-raba, termasuk juga regulator. Namun, sebagian pengembang seperti OpenAI (ChatGPT) disebutnya sudah mulai membuat standarisasi pengembangan AI.

Kendati masih tersandung di sana-sini, Kamluk mengaku optimis AI bakal memberi lebih banyak manfaat bagi manusia di masa depan, alih-alih mudarat.

"Saya pikir AI akan meningkatkan kehidupan kita. Bukan menghilangkan pekerjaan, tapi mengoptimalkan aktivitas dengan memberi solusi-solusi baru," ujarnya. "Saya percaya masa depan manusia cerah (dalam hal AI), tapi memang sekarang masih banyak ketidakpastian."

https://tekno.kompas.com/read/2023/08/28/10300027/ketika-chatgpt-memberi-jawaban-halu-di-bali

Terkini Lainnya

Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke