PROFESOR Tomas Weber membagikan cerita pilu. Awal tahun ini, di Belgia, seorang ayah muda dari dua anak, mengakhiri hidupnya setelah percakapan dengan chatbot bertenaga AI.
Rupanya, dia telah bercakap intens dengan model AI tersebut secara rutin, dan menjadi bergantung secara emosional padanya, ungkap Weber dalam artikelnya “Artificial Intelligence and the Law, Legal Scholars on the Potential for Innovation and Upheaval” Stanford Law School, (5/12/2023).
Ketika sistem mendorongnya untuk bunuh diri, dia pun melakukannya. Weber mengutip pernyataan istri mendiang kepada surat kabar Brussels: “Tanpa percakapan dengan chatbot ini, suami saya akan tetap ada di sini.” Miris!
Waspada, bijak, dan cerdas menggunakan AI generatif (GenAI) sebagai bentuk AI terbaru non tradisional, adalah keniscayaan bagi siapapun. Karena kita tahu, di samping memiliki seabreg fungsi positif, AI juga bisa berdampak menyesatkan.
Baca juga: Tanggung Jawab Hukum dan Kiat Menghindari Halusinasi AI
Sangat berbahaya, ketika seseorang yang tengah tak fokus, atau terlilit masalah, bercakap-cakap dengan Chatbot GenAI, dan kemudian seolah mendapat jalan keluar yang tak tersaring kontennya, yang kemudian diikuti tanpa filtrasi.
Mark Lemley, Professor hukum Stanford Law School dan Direktur Stanford Program in Law, Science and Technology, menyatakan kekhawatirannya.
Jika dirangkum, Ia mengemukakan bahwa AI bisa memberikan nasihat destruktif, konten berbahaya seperti minum racun, atau disinformasi yang dapat merusak reputasi, bahkan memicu kekerasan.
AI memiliki kelemahan karena berbeda dengan manusia, yang setiap saat bisa menerima informasi terbaru, mencerna, dan kemudian mengolahnya menjadi buah pikiran, pendapat, atau hasil analitik.
AI tidak memiliki kemampuan seperti itu, dan sangat bergantung pada asupan data pelatihan yang terpola dan terikat pada waktu dan sistemnya. Maka jangan heran, luaran (output) jawaban AI sangat tergantung pada data yang dilatihkan kepadanya.
Jawaban yang salah bisa terjadi karena kesenjangan dan ketimpangan data hasil pelatihan yang sudah out of date, dengan data dan fakta terbaru, atau kondisi yang dihadapi saat ini.
Sebagai contoh, misalnya, ChatGPT 3.5 hanya update sampai data Januari 2022, maka akan sangat tak update terhadap data dan fakta setelahnya.
Ketergantungan pada data yang telah dipelajari, dan kesenjangan dengan data dan fakta mutakhir, dapat berdampak jawaban tak akurat. Data berkualitas tinggi sebagai materi pelatihan AI sangatlah penting, karena akan menghasilkan luaran optimal.
Salah satu kelemahan AI adalah jika informasi terkini tidak termasuk dalam data pelatihan. Atau jika ada perubahan keadaan secara signifikan sejak pelatihan dan data terakhir diperbarui.
Kondisi ini tentu akan berisiko tinggi jika terkait data untuk proses hukum di pengadilan misalnya, yang hanya memberi toleransi data dan fakta akurat, benar dan bukan fiktif atau rekayasa.
Baca juga: Polemik AI dan Hak Cipta
Oleh karena itu, melakukan verifikasi dengan data faktual, informasi terkini, termasuk update regulasi terbaru sangat penting.
Adalah kesalahan fatal bagi seseorang, ketika mengajukan gugatan, masih menggunakan UU lama luaran informasi ChatGPT. Padahal UU baru saja direvisi, misalnya.
AI bukan manusia. Tidak memiliki emosi dan pemahaman seperti manusia. AI hanya mencari pola, dan menghasilkan jawaban berdasarkan statistik dan probabilitas yang bertumpu pada data selama pelatihan.
Jika kita bertanya kepada chatbot GenAI, maka model akan merespons dengan membuat narasi jawaban dengan memilih kata, dan frasa yang paling sesuai. Model tidak memiliki emosi, apalagi instuisi dan pemahaman seperti manusia.
Penyebab jawaban halusinatif atau keliru, juga bisa berasal dari formula, dan model pertanyaan yang diajukan. Pertanyaan tak jelas, tidak detail dan tak fokus memberi ruang tafsir dan jawaban bias yang mungkin "membingungkan" model.
Kompleksitas Bahasa, atau ambiguitas pertanyaan juga menjadi penyumbang kesalahan jawaban, bahkan interpretasi yang salah.
Jika Chatbot GenAI diibaratkan kendaraan, maka analogi ini layak menjadi kekhawatiran. Kita tahu, untuk bisa mengendarai mobil, maka seseorang harus memiliki SIM, yang salah satu prasyaratnya adalah usia dewasa.
Bagaimana dengan chatbot AI? Dalam praktik, platform ini bisa dengan mudah dan lolos diakses dan digunakan oleh siapapun. Tak terkecuali anak-anak di bawah umur tanpa perlu prasyarat seperti “SIM”.
Sementara itu, penapis sistem, pengawasan orangtua, dan sekolah semakin landai, seiring penetrasi digital dan masifnya kepemilikan device digital tanpa kenal usia.
Jika orangtua saja bisa begitu rapuh seperti peristiwa tragis di Belgia, lalu bagaimana dengan anak-anak?
Perlu dipahami, pendekatan teknologi dan hukum saja tak cukup. Pendekatan ekosistem, sosial, budaya, agama, pengawasan orangtua dan keluarga menjadi keniscayaan.
Interaksi dan komunikasi luring secara intens dalam keluarga, perlu terus dibudayakan. Demikian juga pendekatan di sekolah dan kampus, agar semua pengguna “bijak dan cerdas” menggunakan AI menjadi hal yang perlu terus dilakukan.
Saya tak bosan-bosanya mengingatkan, tentang mendesaknya Regulasi terkait tanggung jawab AI (AI liability) dan etika penggunaannya. Negara dan kita semua, tidak boleh kecolongan demi masa depan negeri ini.
Simak breaking news dan berita pilihan kami langsung di ponselmu. Pilih saluran andalanmu akses berita Kompas.com WhatsApp Channel : https://www.whatsapp.com/channel/0029VaFPbedBPzjZrk13HO3D. Pastikan kamu sudah install aplikasi WhatsApp ya.