Namun demikian, kita tidak tahu pertanyaan mana yang dijawab dengan baik dan mana yang dijawab dengan buruk.
Berbagai bias ini muncul dari data yang mereka latih, umumnya merupakan penelitian ilmiah yang sudah ada, dan mungkin tidak memiliki fokus sama dengan penelitian saat ini.
Profesor Jordan melanjutkan, dalam persoalan ilmiah, kita sering tertarik pada fenomena yang berada di antara yang diketahui dan yang tidak diketahui.
Seringkali, tidak banyak data dari masa lalu yang berada pada kondisi tersebut. Hal ini membuat model AI generatif semakin cenderung "berhalusinasi" dan menghasilkan luaran yang tidak realistis.
Ada laporan menarik yang dirilis National Library of Medicine Bethesda, yang dilakukan oleh Sai Anirudh Athaluri at all.
Para peneliti melakukan riset halusinasi AI pada ChatGPT. Sebanyak 178 referensi yang terdaftar pada ChatGPT diverifikasi dalam penelitian ini.
Analisis statistik dilakukan oleh lima peneliti yang memasukkan datanya ke dalam Google Form. Hasil riset menunjukan, dari 178 referensi yang dianalisis, 69 referensi tidak memiliki Digital Object Identifier (DOI), dan 28 referensi tidak muncul di pencarian Google dan juga tidak memiliki DOI.
Peneliti menyimpulkan, kemampuan ChatGPT untuk menghasilkan referensi yang dapat diandalkan untuk topik penelitian, kemungkinan dibatasi oleh ketersediaan DOI, dan aksesibilitas artikel online.
Harvard Business School, salah satu institusi terdepan di bidang ini, membagikan kiat untuk menghindari halusinasi AI.
Melalui publikasinya "How Can We Counteract Generative AI’s Hallucinations?" (2023), Profesor Karim Lakhani, Ketua Digital, Data, Design Institute Harvard membagikan kiat-kiat untuk meminimalisasi hal tersebut.
Guru Besar terkenal itu menyebut, ChatGPT tidak memiliki mekanisme pengecekan fakta bawaan untuk tanggapannya berdasarkan pola data.
ChatGPT, menurut Karim, dapat “berhalusinasi” dan memberikan tanggapan yang secara faktual salah atau menyesatkan. Respons AI generatif juga sangat dipengaruhi formula pertanyaan atau instruksi pengguna.
Oleh karena itu, pengguna dapat mengambil beberapa langkah untuk minimalisasi halusinasi dan misinformasi saat berinteraksi dengan ChatGPT atau platform AI generatif lainnya melalui pertanyaan atau perintah yang cermat dan formula sistemik.
Karim Lakhani mengintroduksi beberapa langkah untuk meminimalisasi halusinasi AI yang dapat dirangkum sebagai berikut:
Pertama, saat meminta informasi faktual, buat instruksi secara eksplisit dan spesifik, agar AI menunjukan sumber atau bukti yang dapat dipercaya, untuk mendukung jawaban yang diberikan.