Baca berita tanpa iklan. Gabung Kompas.com+
Prof. Dr. Ahmad M Ramli
Guru Besar Cyber Law & Regulasi Digital UNPAD

Guru Besar Cyber Law, Digital Policy-Regulation & Kekayaan Intelektual Fakultas Hukum Universitas Padjadjaran

kolom

Tanggung Jawab Hukum dan Kiat Menghindari Halusinasi AI

Kompas.com - 02/12/2023, 13:00 WIB
Anda bisa menjadi kolumnis !
Kriteria (salah satu): akademisi, pekerja profesional atau praktisi di bidangnya, pengamat atau pemerhati isu-isu strategis, ahli/pakar di bidang tertentu, budayawan/seniman, aktivis organisasi nonpemerintah, tokoh masyarakat, pekerja di institusi pemerintah maupun swasta, mahasiswa S2 dan S3. Cara daftar baca di sini

Ia mencontohkan, kita dapat bertanya, “dari mana sumber informasi tersebut?” atau “dapatkah memberikan bukti untuk mendukung jawaban Anda?”

Hal ini dapat mendorong model untuk memberikan informasi yang lebih andal dan dapat diverifikasi.

Kedua, gunakan beberapa perintah atau penyempurnaan berulang dan petunjuk tambahan jika respons awal dari model tampak meragukan atau tidak memadai. Penyempurnaan percakapan berulang dapat membantu memperoleh hasil lebih baik.

Pengguna juga bisa meminta penjelasan atau alasan kepada chatbot dimaksud. Bisa juga meminta chatbot memberikan penjelasan langkah demi langkah.

Ketiga, periksa kembali informasi secara mandiri. Guru besar terkenal ini menyarankan agar jangan hanya mengandalkan tanggapan model.

Memeriksa fakta dan memverifikasi informasi secara mandiri menggunakan sumber atau referensi terpercaya secara bertanggung jawab harus dilakukan.

Informasi referensi silang, dapat membantu mengidentifikasi dan memperbaiki kesalahan informasi yang dihasilkan oleh model.

Model AI generatif pada dasarnya adalah buatan manusia, sehingga mencerminkan bias yang sudah ada sebelumnya dan dapat menimbulkan dampak yang tidak diinginkan.

Tanggung jawab hukum

Kerap muncul pertanyaan, siapa yang harus bertanggung jawab jika sistem AI membuat luaran halusinasi atau melakukan kesalahan.

Setidaknya ada beberapa subyek yang disebut, yakni mulai dari pengguna, pemrogram, pemilik, atau platform AI itu sendiri?

Untuk menentukan subyek yang harus bertanggung jawab tidaklah mudah, jika tidak ada regulasi spesifik tentang AI yang mengaturnya. Kekosongan hukum akan berdampak pada sulitnya melakukan kualifikasi kesalahan berdasarkan obyek kasus demi kasus.

Menggunakan luaran AI saat ini, juga erat kaitannya dengan tanggung jawab etika. Fenomena halusinasi AI, memberikan kewajiban kepada penggunanya untuk berhati-hati dan tetap berpegang pada etika dan hukum.

Baca juga: Kontroversi Artificial Intelligence dan Penegakan Hukum

Terkait tanggung jawab hukum, kita harus mengambil pelajaran dari kasus halusinasi AI di pengadilan Manhattan AS. Di Pengadilan AS itu, hakim menghukum pengacara yang tidak melakukan pemeriksaan luaran AI dengan cermat.

Kekosongan regulasi AI tidak boleh dibiarkan terus berlangsung. Regulasi efektif dan mengikat, diperlukan untuk memberikan kepastian hak, kewajiban dan tanggung jawab berbagai subyek hukum terkait.

Simak breaking news dan berita pilihan kami langsung di ponselmu. Pilih saluran andalanmu akses berita Kompas.com WhatsApp Channel : https://www.whatsapp.com/channel/0029VaFPbedBPzjZrk13HO3D. Pastikan kamu sudah install aplikasi WhatsApp ya.

Halaman:
Video rekomendasi
Video lainnya


Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
komentar di artikel lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com