Baca berita tanpa iklan. Gabung Kompas.com+
Prof. Dr. Ahmad M Ramli
Guru Besar Cyber Law & Regulasi Digital UNPAD

Guru Besar Cyber Law, Digital Policy-Regulation & Kekayaan Intelektual Fakultas Hukum Universitas Padjadjaran

kolom

Tanggung Jawab Hukum dan Kiat Menghindari Halusinasi AI

Kompas.com - 02/12/2023, 13:00 WIB
Anda bisa menjadi kolumnis !
Kriteria (salah satu): akademisi, pekerja profesional atau praktisi di bidangnya, pengamat atau pemerhati isu-isu strategis, ahli/pakar di bidang tertentu, budayawan/seniman, aktivis organisasi nonpemerintah, tokoh masyarakat, pekerja di institusi pemerintah maupun swasta, mahasiswa S2 dan S3. Cara daftar baca di sini

Namun demikian, kita tidak tahu pertanyaan mana yang dijawab dengan baik dan mana yang dijawab dengan buruk.

Berbagai bias ini muncul dari data yang mereka latih, umumnya merupakan penelitian ilmiah yang sudah ada, dan mungkin tidak memiliki fokus sama dengan penelitian saat ini.

Profesor Jordan melanjutkan, dalam persoalan ilmiah, kita sering tertarik pada fenomena yang berada di antara yang diketahui dan yang tidak diketahui.

Seringkali, tidak banyak data dari masa lalu yang berada pada kondisi tersebut. Hal ini membuat model AI generatif semakin cenderung "berhalusinasi" dan menghasilkan luaran yang tidak realistis.

Ada laporan menarik yang dirilis National Library of Medicine Bethesda, yang dilakukan oleh Sai Anirudh Athaluri at all.

Para peneliti melakukan riset halusinasi AI pada ChatGPT. Sebanyak 178 referensi yang terdaftar pada ChatGPT diverifikasi dalam penelitian ini.

Analisis statistik dilakukan oleh lima peneliti yang memasukkan datanya ke dalam Google Form. Hasil riset menunjukan, dari 178 referensi yang dianalisis, 69 referensi tidak memiliki Digital Object Identifier (DOI), dan 28 referensi tidak muncul di pencarian Google dan juga tidak memiliki DOI.

Peneliti menyimpulkan, kemampuan ChatGPT untuk menghasilkan referensi yang dapat diandalkan untuk topik penelitian, kemungkinan dibatasi oleh ketersediaan DOI, dan aksesibilitas artikel online.

Beberapa kiat

Harvard Business School, salah satu institusi terdepan di bidang ini, membagikan kiat untuk menghindari halusinasi AI.

Melalui publikasinya "How Can We Counteract Generative AI’s Hallucinations?" (2023), Profesor Karim Lakhani, Ketua Digital, Data, Design Institute Harvard membagikan kiat-kiat untuk meminimalisasi hal tersebut.

Guru Besar terkenal itu menyebut, ChatGPT tidak memiliki mekanisme pengecekan fakta bawaan untuk tanggapannya berdasarkan pola data.

ChatGPT, menurut Karim, dapat “berhalusinasi” dan memberikan tanggapan yang secara faktual salah atau menyesatkan. Respons AI generatif juga sangat dipengaruhi formula pertanyaan atau instruksi pengguna.

Oleh karena itu, pengguna dapat mengambil beberapa langkah untuk minimalisasi halusinasi dan misinformasi saat berinteraksi dengan ChatGPT atau platform AI generatif lainnya melalui pertanyaan atau perintah yang cermat dan formula sistemik.

Karim Lakhani mengintroduksi beberapa langkah untuk meminimalisasi halusinasi AI yang dapat dirangkum sebagai berikut:

Pertama, saat meminta informasi faktual, buat instruksi secara eksplisit dan spesifik, agar AI menunjukan sumber atau bukti yang dapat dipercaya, untuk mendukung jawaban yang diberikan.

Halaman:
Video rekomendasi
Video lainnya


Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
komentar di artikel lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com